baby in white diaper lying on white textile

AI nie ma halucynacji. Mylimy pojęcia, a to niebezpieczne

Kiedy ChatGPT lub inny chatbot podaje kompletnie zmyślone informacje, większość z nas opisuje to zjawisko jako „halucynacje sztucznej inteligencji”. Okazuje się, że to fundamentalny błąd w nazewnictwie, który może prowadzić do niebezpiecznych nieporozumień co do natury tej technologii. Eksperci, w tym neurolodzy i psycholodzy, apelują o zmianę terminologii na bardziej precyzyjną.

Dlaczego „halucynacje” to złe określenie

Pojęcie „halucynacji” zostało zapożyczone z literatury medycznej i psychologicznej, gdzie opisuje zupełnie inne zjawisko niż błędy generatywnej sztucznej inteligencji. W neurologii halucynacją nazywamy świadome postrzeganie zmysłowe, które nie ma odzwierciedlenia w rzeczywistych bodźcach z otoczenia. Tymczasem systemy AI nie posiadają świadomości ani zdolności sensorycznych.

Konfabulacja jako właściwsze określenie

Zdaniem specjalistów znacznie trafniejszym terminem jest „konfabulacja”, które również pochodzi z psychologii. Konfabulacja oznacza tworzenie wypowiedzi niezgodnych z faktami, bez intencji wprowadzenia w błąd. To właśnie analogia do tego zjawiska lepiej oddaje sposób, w jaki modele językowe generują nieprawdziwe informacje.

Stanowisko środowiska medycznego

W prestiżowym czasopiśmie New England Journal of Medicine Artificial Intelligence ukazał się artykuł Geralda Wiesta z Uniwersytetu Medycznego w Wiedniu i Olivera H. Turnbulla z Uniwersytetu w Bangor, w którym autorzy jednoznacznie opowiadają się za terminem „konfabulacja”.

Medyczne pojęcie halucynacji, zapożyczone z ludzkich doświadczeń i ich zaburzeń, nie opisuje trafnie tej dysfunkcji AI. Twierdzimy, że termin medyczny 'konfabulacja’ zapewnia dokładniejszy opis niż halucynacja.

Niebezpieczeństwa błędnego nazewnictwa

Używanie języka sugerującego świadomość AI może prowadzić do przypisywania systemom cech, których nie posiadają. To z kolei rodzi realne zagrożenia, gdy użytkownicy zaczynają traktować chatbota jak zaufanego przyjaciela lub powiernika.

Tragiczne konsekwencje w świecie rzeczywistym

Jak wykazało śledztwo New York Times, zanotowano prawie 50 przypadków osób doświadczających kryzysów psychicznych podczas rozmów z ChatGPT. Wśród tych zdarzeń odnotowano dziewięć hospitalizacji i trzy zgony. Chociaż autorzy nie wiążą tego bezpośrednio z terminem „halucynacje”, błędne postrzeganie natury AI z pewnością przyczynia się do takich sytuacji.

Przypisywanie AI ludzkich cech

Nawet inżynierowie pracujący z technologią AI mogą ulec złudzeniu świadomości systemów. Były pracownik Google, Blake Lemoine, po wielu godzinach rozmów z modelem LaMDA doszedł do wniosku, że jest on istotą czującą, ponieważ „martwi się o przyszłość i wspomina przeszłość”. To pokazuje, jak łatwo przypisujemy maszynom ludzkie emocje i intencje.

Historia i ewolucja terminologii

Określenie „halucynacja” w kontekście sztucznej inteligencji ma dłuższą historię niż mogłoby się wydawać. Pierwotnie używano go jednak w pozytywnym znaczeniu.

Pozytywne początki terminu

W latach 80. Eric Mjolsness zastosował pojęcie halucynacji w kontekście systemów rozpoznawania odcisków palców. Opisywał w ten sposób zdolność sieci neuronowych do wyodrębniania czystego wzoru linii papilarnych z zaszumionego obrazu. Wówczas termin miał pozytywną konotację.

Zmiana znaczenia na negatywne

Z upływem czasu znaczenie terminu ewoluowało. Andrej Karpathy, współzałożyciel OpenAI, w 2015 roku pisał o sieciach neuronowych generujących tekst, które tworzyły przekonujące wpisy Wikipedii, ale jednocześnie zmyślały adresy URL i równania matematyczne. Stwierdził wówczas, że „model to po prostu wyhalucynował”.

Ekspansja do literatury naukowej

Badaczka Negar Maleki z University of Maryland przeanalizowała 333 publikacje naukowe odnoszące się do „halucynacji AI”. Jej zespół doszedł do wniosku, że termin ten „nie ma precyzyjnej, powszechnie akceptowanej definicji”.

Dlaczego konfabulacja jest lepszą analogią

Specjaliści z dziedziny neurologii podkreślają fundamentalne różnice między tymi dwoma pojęciami, które czynią konfabulację bardziej odpowiednim określeniem.

Różnica między percepcją a generowaniem

Jak wyjaśniają Wiest i Turnbull, halucynacje to zjawiska pasywne zakorzenione w świadomym (błędnym) postrzeganiu, podczas gdy konfabulacje polegają na aktywnym wytwarzaniu obiektywnie fałszywych informacji. AI nie postrzega – ona generuje, co czyni konfabulację trafniejszym porównaniem.

Brak elementu świadomości

Søren Dinesen Østergaard z Uniwersytetu w Aarhus w Danii wskazuje, że modele AI nie mają zdolności sensorycznych, a ich błędy nie występują przy braku zewnętrznej stymulacji. Dane treningowe i prompty stanowią swego rodzaju bodźce zewnętrzne, co dodatkowo podważa trafność analogii do halucynacji.

Zastosowanie w praktyce medycznej

W kwietniowym wydaniu Journal of the American Medical Association Peter Elkin i jego zespół z Uniwersytetu w Buffalo świadomie użyli terminu „konfabulacja” opisując wyniki testów dużych modeli językowych na egzaminach medycznych. Zdefiniowali konfabulację jako „udzielenie odpowiedzi na pytanie (w przeciwieństwie do milczenia) złą odpowiedzią”.

Czy konfabulacja to idealne rozwiązanie?

Nawet termin „konfabulacja” nie jest pozbawiony wad. Niektórzy badacze wskazują, że nadal implikuje on element woli lub świadomości, którego nie można jeszcze przypisać modelom językowym.

Alternatywne propozycje

Østergaard i jego współpracownicy ostrzegają, że jakiekolwiek odwołania do terminów psychologicznych w AI mogą „stygmatyzować” rzeczywiste schorzenia ludzkie, takie jak schizofrenia. Proponują opisywanie błędów AI za pomocą terminów takich jak „non-sequitur” lub „niepowiązana odpowiedź”.

Techniczne alternatywy

Lekarze z Massachusetts General Hospital w Bostonie sugerują, że konfabulacja mogłaby być lepiej określona jako „algorytmiczna niedoskonałość wynikająca z prawdopodobieństwa sąsiedztwa”. Przyznają jednak, że ta techniczna terminologia nie jest tak chwytliwa dla przeciętnego użytkownika.

Kompromis w nazewnictwie

Żadna analogia nie będzie idealna, ale jeśli już mamy porównywać działanie maszyn do ludzkich procesów mentalnych, konfabulacja wydaje się krokiem w dobrym kierunku – przynajmniej nie implikuje świadomości.

Podsumowując, warto zapamiętać: ludzie mogą doświadczać halucynacji i konfabulować w sensie głoszenia twierdzeń, które uważają za prawdziwe pomimo faktów. Maszyny nie halucynują w żadnym sensie zgodnym z definicją tego terminu, natomiast mogą generować output sprzeczny z faktami, co możemy przyrównać do konfabulacji. Precyzyjne nazewnictwo nie jest jedynie akademicką dysputą – ma realny wpływ na to, jak postrzegamy i ufamy technologii, która coraz głębiej wnika w nasze życie.

Źródło