Świat informacji zmienia się na naszych oczach. Coraz częściej natykamy się na realistyczne filmy, które nigdy nie miały miejsca – wygenerowane w całości przez systemy sztucznej inteligencji. Eksperci, tacy jak dr Beth Malow, nazywają to zjawisko „AI slop” – niekończącą się falą syntetycznych obrazów, nagrań i historii, tworzonych szybko, tanio i na masową skalę. Czasem są to niewinne żarty, jak tysiąc kotów budzących człowieka. Częściej jednak służą celowej prowokacji, manipulacji tożsamością lub szerzeniu propagandy. Problem wykracza poza Twittera/X; fałszywe treści pojawiają się nawet na LinkedIn, platformie kojarzonej z profesjonalizmem. Jak się w tym wszystkim nie pogubić?
Psychologia dezinformacji: dlaczego tak łatwo wpadamy w pułapkę
Mechanizm, który sprawia, że wierzymy w fałszywe treści, nie jest nowy. Sztuczna inteligencja jedynie radykalnie obniżyła koszt i wysiłek potrzebny do ich masowej produkcji i dystrybucji. Twórcy takich materiałów celowo naciskają na nasze emocjonalne i poznawcze guziki: autorytet, zagrożenie, niesprawiedliwość, opór i moralną pewność. Prezentują wyreżyserowany, kinowy moment konfrontacji, który nie wymaga znajomości tła ani nazwisk. Chodzi o to, byś najpierw poczuł, a dopiero potem pomyślał.
Siła emocji i tożsamości
Szczególnie podatni jesteśmy na treści, które trafiają w nasze silne przekonania dotyczące kluczowych kwestii kulturowych czy politycznych. Jak wskazuje badacz Matthew, ludzie mają tendencję do wiary w to, co pasuje do ich wartości, żalów i grupowej tożsamości – niekoniecznie w to, co jest prawdziwe. Gdy film potwierdza to, w co i tak wierzysz, autentyczność schodzi na dalszy plan. Liczy się to, że „czuje się” właściwie. AI pogłębia ten problem, bo do stworzenia przekonującej historii nie potrzeba prawdziwych ludzi ani wydarzeń. Nie ma źródła do zweryfikowania, bo źródło jest fikcją.
Gdy coś natychmiast wywołuje w tobie złość, poczucie słuszności lub moralnej wyższości, to często sygnał, by się zatrzymać – nie dlatego, że twoja reakcja jest zła, ale dlatego że prawdopodobnie jest wykorzystywana.
Kluczowa jest zatem umiejętność rozpoznania, kiedy nasze emocje są używane jako skrót omijający weryfikację. To właśnie Matthew nazywa „psychologiczną kompetencją” – jedną z najskuteczniejszych obron przed współczesną dezinformacją.
Lateral reading: najskuteczniejsza metoda weryfikacji
Instynkt podpowiada nam, by wpatrywać się w sam film, szukając niedoskonałości: dziwnych ruchów, liczby palców, nienaturalnego światła. Choć czasem to pomaga, AI ciągle się ulepsza, a wizualne artefakty znikają. Dlatego najskuteczniejszą strategią nie jest „czytanie pionowe” (skupienie na samym materiale), lecz „czytanie boczne” (lateral reading) – czyli opuszczenie treści i sprawdzenie jej w innych miejscach. Tak postępują zawodowi fact-checkerzy.
Praktyczne kroki lateral reading
Zamiast pytać „Czy to wygląda prawdziwie?”, zadaj sobie następujące pytania i poszukaj na nie odpowiedzi, otwierając nowe karty w przeglądarce:
- Czy wiarygodne serwisy informacyjne opisują to zdarzenie? Jeśli nikt poza social media o tym nie mówi, to czerwona flaga.
- Kto to udostępnił i jakie jest źródło? Sprawdź historię konta. Czy poza viralowymi klipami ma jakąś wiarygodną aktywność?
- Czy istnieje niezależne potwierdzenie poza tą platformą? Szukaj dowodów w innych kanałach komunikacji.
W wielu przypadkach odpowiedzi są szybkie i jednoznaczne: brak doniesień medialnych, konto-anonim, a film krąży tylko w jednej bańce. Narzędzia cyfrowe, jak odwrotne wyszukiwanie obrazów Google, mogą pomóc w śledzeniu pochodzenia materiału. Przydatną ramą działania jest metoda SIFT:
- Stop (Zatrzymaj się) przed reakcją, w tym przed udostępnieniem.
- Investigate the source (Zbadaj źródło) – nie wahaj się otwierać nowych kart.
- Find better coverage (Znajdź lepsze relacje) – czy główne media to potwierdzają?
- Trace claims (Śledź pochodzenie) – tu pomocne jest odwrotne wyszukiwanie.
Potrzeba zmian systemowych: rola platform i polityki
Umiejętności jednostek i normy społeczne są kluczowe, ale w obecnej skali problemu konieczne są również interwencje systemowe. Platformy społecznościowe są zoptymalizowane pod zaangażowanie, a nie prawdę. „AI slop” kwitnie, ponieważ tanie i masowo przechwytuje uwagę. Syntetyczne oburzenie jest opłacalne, nawet gdy szkodzi społeczeństwu. Potrzebujemy więc wyraźniejszych regulacji i standardów.
Kluczowe postulaty zmian
Eksperci wskazują na konieczność wprowadzenia przez platformy i regulatorów kilku fundamentalnych rozwiązań:
- Jasne oznaczanie treści generowanych przez AI, aby użytkownik od razu wiedział, z czym ma do czynienia.
- Transparentność dotycząca kont syntetycznych i botów.
- Pociąganie do odpowiedzialności powtarzających się sprawców szerzenia dezinformacji.
- Demonetyzacja zwodniczego „AI slop”, czyli odcięcie go od strumieni przychodów.
Jasność i odpowiedzialność są niezbędne, by na dużą skalę przełamywać bańki informacyjne. Niektóre platformy, jak YouTube, zaczynają priorytetowo traktować ten problem, ale zmiany muszą być szersze i szybsze.
Obrona przed erozją zaufania
Najgroźniejszym skutkiem fałszywych filmów AI nie jest to, że ktoś uwierzy w jedną historię. Prawdziwe niebezpieczeństwo tkwi w stopniowej erozji zaufania: do mediów, instytucji, a w końcu – do innych ludzi. Obrona przed tym nie wymaga zostania ekspertem od forensyki AI. Wymaga czegoś trudniejszego, ale trwalszego: zrozumienia własnych uprzedzeń, weryfikacji informacji metodą lateral reading oraz domagania się odpowiedzialności od systemów zaprojektowanych do eksploatacji naszej uwagi.
Gdy sztuczna inteligencja staje się coraz większą częścią tego, jak postrzegamy rzeczywistość, psychologiczna kompetencja jest warunkiem koniecznym, by się w niej nie zagubić. To właśnie ona, bardziej niż jakiekolwiek pojedyncze narzędzie czy regulacja, pozwala nam nie utonąć w powodzi syntetycznych śmieci.




