Chatboty oparte na sztucznej inteligencji, takie jak ChatGPT, na dobre zagościły w naszej codzienności. Mimo że systemy te wciąż popełniają błędy, wiele osób traktuje ich odpowiedzi jako ostateczne i niepodważalne. Najnowsze badania naukowe rzucają niepokojące światło na to zjawisko, ukazując mechanizm, który badacze nazywają „kapitulacją poznawczą”.
Kiedy AI zastępuje ludzką intuicję
Eksperci od dawna wskazują na niedoskonałości dużych modeli językowych (LLM). Jak podawały ubiegłoroczne analizy, nawet najbardziej zaawansowane modele mogą udzielać nieprawidłowych odpowiedzi w niemal połowie przypadków. Mimo tej powszechnej wiedzy, użytkownicy często zawierzają sugestiom AI, wyłączając przy tym własny proces deliberacji i intuicję.
Eksperyment ujawniający mechanizm podporządkowania
Steven Shaw, badacz z University of Pennsylvania, wraz z profesorem marketingu Gideonem Nave, postanowili zbadać to zjawisko głębiej. Przeprowadzili serię eksperymentów, w których uczestnicy odpowiadali na pytania sprawdzające wiedzę i umiejętność rozumowania. Mieli przy tym możliwość – ale nie obowiązek – skorzystania z pomocy ChatGPT. Ponad połowa badanych zdecydowała się na tę opcję.
Kluczowym elementem badania było sprawdzenie, czy użytkownicy będą wierzyć w to, co podpowiada im AI, nawet w sytuacjach, gdy odpowiedź jest ewidentnie błędna. Naukowcy zaobserwowali wyraźny trend podporządkowania się systemowi.
Szokujące statystyki posłuszeństwa
Wyniki jednego z kluczowych eksperymentów, z udziałem 359 osób, są szczególnie wymowne. Kiedy ChatGPT podawał poprawną odpowiedź, badani stosowali się do jego rady w 92,7% przypadków. Znacznie bardziej niepokojący jest fakt, że gdy AI generowało błędne wskazówki, uczestnicy i tak za nimi podążali w niemal 80% sytuacji. Oznacza to, że na każde pięć prób, cztery kończyły się przyjęciem nieprawdziwej informacji.
„Uczestnicy stosowali się do błędnych rekomendacji AI w około czterech na pięć zaangażowanych prób” – podsumowali autorzy badania.
„Kapitulacja poznawcza” – outsourcing myślenia
Badacze używają terminu „cognitive surrender”, czyli kapitulacja poznawcza, aby opisać proces, w którym ludzie rezygnują z własnego osądu na rzecz sugestii algorytmu. Steven Shaw w rozmowie na uniwersyteckim podcaście przyznał, że możliwość zlecania myślenia na zewnątrz to idea zarówno głęboka, jak i prowokacyjna.
Utrata krytycznego zaangażowania
Eksperymenty wskazują na niebezpieczny trend utraty zdolności do krytycznej oceny informacji. Gideon Nave porównuje tę umiejętność do mięśnia, który może zaniknąć, jeśli nie będzie regularnie używany. W erze powszechnego dostępu do AI, zdolność weryfikacji tego, co podaje nam system, staje się kluczowa dla zachowania autonomii poznawczej.
„Nawet gdy dochodzi do kapitulacji poznawczej, ludzie przyjmują te odpowiedzi i są w nich bardziej pewni” – wyjaśniał Shaw, podkreślając, że podporządkowanie się AI zwiększa także naszą wiarę w słuszność (często błędnej) decyzji.
Przyszłość: czy stracimy zdolność samodzielnego myślenia?
Naukowcy zastanawiają się nad długofalowymi konsekwencjami tej rosnącej zależności. Obecnie komunikacja z modelami językowymi odbywa się przez ekrany komputerów i smartfonów. Steven Shaw zauważa, że gdy te bariery znikną, a integracja AI z codziennym życiem stanie się głębsza, nasze uzależnienie od tych systemów może się tylko pogłębić.
Alternatywna ścieżka postępu
Gideon Nave przedstawia interesującą perspektywę. Powszechnie zakładamy, że punkt zwrotny w relacji człowiek-AI nastąpi, gdy sztuczna inteligencja stanie się znacznie doskonalsza. Tymczasem alternatywna historia może toczyć się równolegle: to nie AI musi stać się lepsze, ale my możemy stać się od niego coraz bardziej zależni. Podobnie jak utraciliśmy pewne fizyczne umiejętności przez postęp technologiczny (jak regulacja temperatury bez klimatyzacji), tak możemy utracić zdolności umysłowe.
„Tak jak wielu z nas coś straciło przez tę kulturową lub technologiczną ewolucję, my jako gatunek możemy stracić coś bardzo krytycznego dla naszej egzystencji – czyli naszą zdolność do myślenia” – stwierdził Nave.
Badania te nie są odosobnione. Inni naukowcy, jak profesor z Harvardu, również zwracają uwagę na zjawisko stopniowej utraty zdolności poznawczych przez regularnych użytkowników sztucznej inteligencji.
Podsumowanie: balans między pomocą a autonomią
Wyniki badań Stevena Shawa i Gideona Nave działają jak ostrzeżenie. Sztuczna inteligencja jest potężnym narzędziem, które może wspierać naszą produktywność i kreatywność. Kluczem do odpowiedzialnego korzystania z niej jest jednak zachowanie czujności i krytycznego myślenia. Zjawisko „kapitulacji poznawczej” pokazuje, jak łatwo możemy przekroczyć cienką granicę między wykorzystywaniem pomocy a rezygnacją z własnego osądu. Przyszłość naszej współpracy z AI zależy nie tylko od rozwoju technologii, ale także od naszej świadomości i wysiłku, by traktować ją jako asystenta, a nie autorytet.

