En hallucination är inom generativ artificiell intelligens ett genererat svar som innehåller falsk eller vilseledande information som presenteras som fakta.[1][2][3] Forskare som Oren Etzioni menar att programvara som ChatGPT kan ge svar som låter korrekta men är helt fel.[4] AI-hallucinationer skiljer sig från mänskliga hallucinationer i det att de förknippas med omotiverade svar eller övertygelser snarare än upplevelser.[3]
2023 uppskattades att modeller som GPT-3.5 hallucinerade i mellan 3 % och 27 % av responserna beroende på modell.[5] Att upptäcka och åtgärda dessa hallucinationer innebär betydande utmaningar för användning av språkinlärningsmodeller.[6][7]
Begreppet "hallucination" kan även tillämpas utanför språkbehandling, där ett inkorrekt men säkert svar från vilken AI-modell som helst (som inte verkar komma från modellens träningsdata) kan betecknas som en hallucination.[3] Vissa forskare menar dock att ordet "hallucination" är överdrivet antropomorfiserande kring datorer.[8]
Exempel
I maj 2023 upptäcktes det att Stephen Schwartz citerade sex prejudikat som hallucinerats av ChatGPT i målet Mata v. Avianca som behandlades i Southern District of New York. Schwartz sa att han aldrig tidigare hade använt ChatGPT, att han inte var medveten om att ChatGPT kunde ge osanna svar, och att ChatGPT fortsatte att hävda att prejudikaten var äkta efter att han ifrågasatte deras existens.[9] Den 23 juni utfärdade domaren i fallet böter på 5 000 USD till Schwartz och en medadvokat. Domaren beskrev även utdrag av de hallucinerade prejudikaten som "på gränsen till nonsens".[10] Efter detta förbjöd även USA:s distriktsdomstol för Northern District of Texas bruk av AI-genererat material som inte granskats av en människa.[11]
AI-modeller kan även orsaka problem inom vetenskaplig forskning på grund av hallucinationer. Modeller som ChatGPT kan generera källor för information som antingen inte är korrekt eller inte existerar. En studie utförd i Cureus Journal of Medical Science visade att 69 av totalt 178 referenser som citerades av GPT-3 hade en inkorrekt DOI. Ytterligare 28 saknade DOI och kunde inte hittas i en Google-sökning.[12]
^Athaluri, Sai Anirudh; Manthena, Sandeep Varma; Kesapragada, V S R Krishna Manoj; Yarlagadda, Vineel; Dave, Tirth; Duddumpudi, Rama Tulasi Siri (11 april 2023). ”Exploring the Boundaries of Reality: Investigating the Phenomenon of Artificial Intelligence Hallucination in Scientific Writing Through ChatGPT References”. Cureus 15 (4): sid. e37432. doi:10.7759/cureus.37432.