Kiedy sztuczna inteligencja zawodzi naszą samoocenę
Wszyscy mamy tendencję do uważania się za nieco lepszych niż wynosi średnia. W psychologii znane jest to jako efekt Dunninga-Krugera – osoby o niskich kompetencjach w danej dziedzinie często nieświadomie przeceniają swoje umiejętności. Jednak w kontekście współpracy z AI, jak pokazują badania z Uniwersytetu Aalto, ta zasada przestaje obowiązywać. Okazuje się, że wszyscy użytkownicy, niezależnie od poziomu zaawansowania, mają problem z trafną oceną własnych dokonań przy użyciu narzędzi takich jak ChatGPT.
Odwrócony efekt w świecie AI
Autorzy badania zaobserwowali zaskakujące zjawisko. Klasyczny efekt Dunninga-Krugera zanika, a na jego miejsce pojawia się coś wręcz przeciwnego. Osoby, które deklarują wysoką znajomość technologii sztucznej inteligencji, wykazują jeszcze większą skłonność do przeceniania swoich rezultatów pracy z modelami językowymi. „Spodziewalibyśmy się, że osoby z większą wiedzą o AI nie tylko będą lepiej z niej korzystać, ale także trafniej oceniać efekty tej współpracy. Okazało się, że tak nie jest” – komentuje profesor Robin Welsch, jeden z autorów pracy.
Pułapka pojedynczego promptu
Gdzie leży źródło tego problemu? Analiza zachowania uczestników badania jest bardzo wymowna. Większość osób korzystała z ChatGPT w sposób wyjątkowo powierzchowny. Dla każdego zadania logicznego z testu LSAT wystarczył im zazwyczaj jeden, prosty prompt. Po prostu kopiowali treść pytania, wklejali do systemu i bezkrytycznie akceptowali otrzymaną odpowiedź, bez jakiejkolwiek weryfikacji lub głębszej refleksji.
Naukowcy określają to zjawisko mianem „przerzucania poznawczego” (cognitive offloading). Polega ono na tym, że cały ciężar przetwarzania informacji i rozwiązania problemu przenosimy na system AI, rezygnując z własnego zaangażowania umysłowego. Taki płytki poziom interakcji pozbawia nas cennych informacji zwrotnych, które są niezbędne do wyrobienia sobie realistycznej oceny własnych umiejętności.
Potrzeba refleksji i krytycznego myślenia
Obecne narzędzia AI nie wspierają w wystarczającym stopniu metapoznania, czyli świadomości własnych procesów myślowych. „Współczesne platformy AI nie są wystarczające. Nie rozwijają one metapoznania i nie uczymy się na własnych błędach” – dodaje doktorantka Daniela da Silva Fernandes. Konieczne staje się projektowanie rozwiązań, które aktywnie zachęcają użytkowników do głębszej refleksji nad tym, w jaki sposób dochodzą do rozwiązania.
Praktyczne strategie dla mądrzejszej pracy z AI
Jak zatem przełamać ten schemat i zacząć efektywniej współpracować z modelami językowymi? Zamiast ograniczać się do jednego, prostego zapytania, warto zastosować podejście iteracyjne i zmusić się do głębszego przetworzenia tematu. Oto przykłady promptów, które pomogą ci wyjść poza pułapkę ślepego zaufania.
Zamiast prosić o gotową odpowiedź, poproś AI o przeprowadzenie cię przez proces rozumowania:
Przeanalizujmy następujący problem [wstaw treść problemu]. Proszę, nie podawaj mi od razu odpowiedzi. Zamiast tego, zadawaj mi pytania krok po kroku, które pomogą mi samodzielnie dojść do rozwiązania. Moja pierwsza próba to: [wpisz swój początkowy tok myślenia].
Kolejna skuteczna metoda to zmuszenie się do weryfikacji otrzymanego wyniku. Poproś AI o odegranie roli „adwokata diabła”:
Oto odpowiedź, którą otrzymałem/am od Ciebie na pytanie: [wklej pytanie i odpowiedź]. Teraz proszę, przeanalizuj tę odpowiedź w roli krytycznego recenzenta. Wskaż trzy potencjalne słabe punkty, założenia lub obszary, które mogłyby wymagać dodatkowego sprawdzenia lub dowodów.
Możesz także zastosować metodę wielokrotnej perspektywy, aby uzyskać bardziej zniuansowane zrozumienie tematu:
W odpowiedzi na pytanie: [twoje pytanie], proszę, przedstaw analizę z trzech różnych perspektyw: 1. Perspektywa [np. specjalisty od danej dziedziny] 2. Perspektywa [np. sceptyka lub krytyka] 3. Perspektywa [np. osoby skupionej na praktycznym zastosowaniu] Na koniec, pomóż mi zsyntetyzować te punkty widzenia, aby wyciągnąć własne, przemyślane wnioski.
Podsumowanie: od zaufania do współpracy
Badanie przytoczone w artykule wyraźnie pokazuje, że sama techniczna wiedza o AI nie wystarcza, aby efektywnie z niej korzystać. Kluczowe jest wypracowanie nawyków, które zmieniają naszą relację z narzędziami z biernego odbiorcy na aktywnego, krytycznego partnera. Zamiast ślepo ufać pierwszej otrzymanej odpowiedzi, powinniśmy traktować AI jako impuls do głębszego myślenia, a nie jego zastępstwo. Wprowadzenie do swojej pracy strategii opartych na wielokrotnych promptach, kwestionowaniu otrzymanych wyników i analizie z różnych punktów widzenia, pozwala nie tylko na uzyskanie lepszych rezultatów, ale także na zachowanie i rozwój naszych własnych kompetencji poznawczych.




