a person holding a cell phone in their hand

ChatGPT nie czyni cię mądrzejszym. Jak unikać pułapki

Kiedy sztuczna inteligencja zawodzi naszą samoocenę

Wszyscy mamy tendencję do uważania się za nieco lepszych niż wynosi średnia. W psychologii znane jest to jako efekt Dunninga-Krugera – osoby o niskich kompetencjach w danej dziedzinie często nieświadomie przeceniają swoje umiejętności. Jednak w kontekście współpracy z AI, jak pokazują badania z Uniwersytetu Aalto, ta zasada przestaje obowiązywać. Okazuje się, że wszyscy użytkownicy, niezależnie od poziomu zaawansowania, mają problem z trafną oceną własnych dokonań przy użyciu narzędzi takich jak ChatGPT.

Odwrócony efekt w świecie AI

Autorzy badania zaobserwowali zaskakujące zjawisko. Klasyczny efekt Dunninga-Krugera zanika, a na jego miejsce pojawia się coś wręcz przeciwnego. Osoby, które deklarują wysoką znajomość technologii sztucznej inteligencji, wykazują jeszcze większą skłonność do przeceniania swoich rezultatów pracy z modelami językowymi. „Spodziewalibyśmy się, że osoby z większą wiedzą o AI nie tylko będą lepiej z niej korzystać, ale także trafniej oceniać efekty tej współpracy. Okazało się, że tak nie jest” – komentuje profesor Robin Welsch, jeden z autorów pracy.

Pułapka pojedynczego promptu

Gdzie leży źródło tego problemu? Analiza zachowania uczestników badania jest bardzo wymowna. Większość osób korzystała z ChatGPT w sposób wyjątkowo powierzchowny. Dla każdego zadania logicznego z testu LSAT wystarczył im zazwyczaj jeden, prosty prompt. Po prostu kopiowali treść pytania, wklejali do systemu i bezkrytycznie akceptowali otrzymaną odpowiedź, bez jakiejkolwiek weryfikacji lub głębszej refleksji.

Naukowcy określają to zjawisko mianem „przerzucania poznawczego” (cognitive offloading). Polega ono na tym, że cały ciężar przetwarzania informacji i rozwiązania problemu przenosimy na system AI, rezygnując z własnego zaangażowania umysłowego. Taki płytki poziom interakcji pozbawia nas cennych informacji zwrotnych, które są niezbędne do wyrobienia sobie realistycznej oceny własnych umiejętności.

Potrzeba refleksji i krytycznego myślenia

Obecne narzędzia AI nie wspierają w wystarczającym stopniu metapoznania, czyli świadomości własnych procesów myślowych. „Współczesne platformy AI nie są wystarczające. Nie rozwijają one metapoznania i nie uczymy się na własnych błędach” – dodaje doktorantka Daniela da Silva Fernandes. Konieczne staje się projektowanie rozwiązań, które aktywnie zachęcają użytkowników do głębszej refleksji nad tym, w jaki sposób dochodzą do rozwiązania.

Praktyczne strategie dla mądrzejszej pracy z AI

Jak zatem przełamać ten schemat i zacząć efektywniej współpracować z modelami językowymi? Zamiast ograniczać się do jednego, prostego zapytania, warto zastosować podejście iteracyjne i zmusić się do głębszego przetworzenia tematu. Oto przykłady promptów, które pomogą ci wyjść poza pułapkę ślepego zaufania.

Zamiast prosić o gotową odpowiedź, poproś AI o przeprowadzenie cię przez proces rozumowania:

Przeanalizujmy następujący problem [wstaw treść problemu]. Proszę, nie podawaj mi od razu odpowiedzi. Zamiast tego, zadawaj mi pytania krok po kroku, które pomogą mi samodzielnie dojść do rozwiązania. Moja pierwsza próba to: [wpisz swój początkowy tok myślenia].

Kolejna skuteczna metoda to zmuszenie się do weryfikacji otrzymanego wyniku. Poproś AI o odegranie roli „adwokata diabła”:

Oto odpowiedź, którą otrzymałem/am od Ciebie na pytanie: [wklej pytanie i odpowiedź]. Teraz proszę, przeanalizuj tę odpowiedź w roli krytycznego recenzenta. Wskaż trzy potencjalne słabe punkty, założenia lub obszary, które mogłyby wymagać dodatkowego sprawdzenia lub dowodów.

Możesz także zastosować metodę wielokrotnej perspektywy, aby uzyskać bardziej zniuansowane zrozumienie tematu:

W odpowiedzi na pytanie: [twoje pytanie], proszę, przedstaw analizę z trzech różnych perspektyw:
1. Perspektywa [np. specjalisty od danej dziedziny]
2. Perspektywa [np. sceptyka lub krytyka]
3. Perspektywa [np. osoby skupionej na praktycznym zastosowaniu]
Na koniec, pomóż mi zsyntetyzować te punkty widzenia, aby wyciągnąć własne, przemyślane wnioski.

Podsumowanie: od zaufania do współpracy

Badanie przytoczone w artykule wyraźnie pokazuje, że sama techniczna wiedza o AI nie wystarcza, aby efektywnie z niej korzystać. Kluczowe jest wypracowanie nawyków, które zmieniają naszą relację z narzędziami z biernego odbiorcy na aktywnego, krytycznego partnera. Zamiast ślepo ufać pierwszej otrzymanej odpowiedzi, powinniśmy traktować AI jako impuls do głębszego myślenia, a nie jego zastępstwo. Wprowadzenie do swojej pracy strategii opartych na wielokrotnych promptach, kwestionowaniu otrzymanych wyników i analizie z różnych punktów widzenia, pozwala nie tylko na uzyskanie lepszych rezultatów, ale także na zachowanie i rozwój naszych własnych kompetencji poznawczych.

Źródło