ChatGPT czyni nas zbyt pewnymi siebie. Jak temu zaradzić?

Odwrotny efekt Dunninga-Krugera w świecie AI

Kiedy oceniamy swoje kompetencje w różnych dziedzinach, często przeceniamy własne umiejętności. Zjawisko to, znane jako efekt Dunninga-Krugera, jest szczególnie widoczne wśród osób, których rzeczywiste umiejętności są niskie. Okazuje się jednak, że w interakcjach ze sztuczną inteligencją, a konkretnie z dużymi modelami językowymi (LLM) takimi jak ChatGPT, ta zasada przestaje obowiązywać.

Badacze z Uniwersytetu Aalto odkryli coś zupełnie przeciwnego. W przypadku korzystania z ChatGPT wszyscy użytkownicy – niezależnie od poziomu zaawansowania – wykazują tendencję do przeceniania swoich osiągnięć. Co więcej, osoby deklarujące większą biegłość w posługiwaniu się technologiami AI były jeszcze bardziej skłonne do przeszacowywania swoich umiejętności. To swego rodzaju odwrócenie klasycznego efektu Dunninga-Krugera.

Pułapka poznawczego odciążenia

Autorzy badania postanowili sprawdzić, jak ludzie radzą sobie z zadaniami wymagającymi logicznego myślenia przy wsparciu AI. W eksperymencie wzięło udział około 500 osób, które rozwiązywały skomplikowane zadania logiczne, podobne do tych z testów na studia prawnicze. Połowa badanych korzystała z pomocy ChatGPT, a druga połowa nie.

Wyniki były zastanawiające. Osoby używające AI radziły sobie lepiej, ale jednocześnie znacząco przeceniały swój wynik. Analiza interakcji z chatbotem ujawniła powód tego zjawiska. Większość użytkowników ograniczała się do pojedynczego prompta na pytanie. Po prostu kopiowali treść zadania, wklejali je do systemu i bezkrytycznie akceptowali otrzymaną odpowiedź, nie weryfikując jej ani nie kwestionując.

Profesor Robin Welsch, jeden z autorów badania, wyjaśnia to zjawisko jako „poznawcze odciążenie” (cognitive offloading). Polega ono na tym, że cały proces przetwarzania informacji i rozwiązywania problemu jest przenoszony na system AI, a użytkownik rezygnuje z własnego, krytycznego namysłu.

Dlaczego pojedynczy prompt to za mało?

Płytki poziom zaangażowania w interakcję z AI ogranicza możliwość realistycznej oceny własnych kompetencji. Gdy zadajemy tylko jedno, podstawowe pytanie i natychmiast otrzymujemy gotową odpowiedź, nie mamy punktu odniesienia, aby zweryfikować, czy rozwiązanie jest poprawne, czy nasze zrozumienie problemu było właściwe.

Badacze sugerują, że kluczem do poprawy tej sytuacji jest zachęcanie użytkowników do zadawania wielu pytań i głębszej interakcji z systemem. Taka wielokrotna wymiana mogłaby stworzyć pętlę sprzężenia zwrotnego, która wspierałaby metapoznanie, czyli świadomość własnych procesów myślowych.

Praktyczne strategie dla mądrzejszego korzystania z AI

Jak zatem używać narzędzi takich jak ChatGPT w sposób bardziej refleksyjny i skuteczny? Zamiast polegać na jednym prostym zapytaniu, warto zastosować podejście iteracyjne i krytyczne. Oto przykłady promptów, które pomogą Ci głębiej zaangażować się w proces rozwiązywania problemu.

Zamiast po prostu poprosić o rozwiązanie, poproś AI o sprawdzenie Twojego toku rozumowania:

Przeanalizowałem następujące zadanie z logiki: [wklej treść zadania]. Oto mój pomysł na rozwiązanie: [opisz swoją próbę rozwiązania]. Czy mój tok rozumowania jest poprawny? Wskaż ewentualne błędy i zaproponuj, jak mogę dojść do prawidłowego wniosku.

Kolejna skuteczna strategia to zmuszenie siebie do głębszej analizy poprzez proszenie AI o wyjaśnienia:

Odpowiedź na moje pytanie brzmi: [X]. Proszę, przeanalizuj krok po kroku, dlaczego jest to prawidłowa lub błędna odpowiedź. Wskaż kluczowe założenia logiczne, które prowadzą do tego wniosku.

Możesz także poprosić system o alternatywne punkty widzenia, co rozwija krytyczne myślenie:

Zaproponuj trzy alternatywne sposoby podejścia do tego problemu. Dla każdego z nich wskaż mocne i słabe strony.

Potrzeba platform wspierających refleksję

Badacze podkreślają, że sama wiedza techniczna o AI nie wystarczy. Konieczne jest projektowanie platform, które aktywnie zachęcają użytkowników do refleksji. Doktorantka Daniela da Silva Fernandes sugeruje, że AI mogłaby pytać użytkowników o wyjaśnienie ich rozumowania. Takie działanie zmusza do konfrontacji z własną „iluzją wiedzy” i promuje krytyczne myślenie.

Obecne narzędzia, choć potężne, nie wspierają w wystarczającym stopniu metapoznania. Aby uniknąć pułapki ślepego zaufania i utraty własnych kompetencji, zarówno twórcy technologii, jak i jej użytkownicy, muszą skupić się na budowaniu nawyków głębszej, bardziej świadomej współpracy z systemami sztucznej inteligencji.

REVIEWED_ARTICLE: Artykuł na podstawie badania „AI makes you smarter but none the wiser: The disconnect between performance and metacognition” opublikowanego w czasopiśmie Computers in Human Behavior przez zespół z Aalto University.

Źródło