Proces recenzji naukowej od dawna uznawany jest za filiar rzetelności akademickiego świata. To koledzy po fachu weryfikują prace badawcze przed ich publikacją. Okazuje się jednak, że w dziedzinie sztucznej inteligencji ten fundament zaczyna się kruszyć. Najnowsze doniesienia ujawniają alarmującą skalę wykorzystania systemów AI zarówno do pisania recenzji, jak i samych artykułów naukowych, co stawia pod znakiem zapytania przyszłość wiarygodności badań w tej dynamicznie rozwijającej się dyscyplinie.
Alarmujące dane z czołowej konferencji AI
Problem wyszedł na jaw przy okazji przygotowań do International Conference on Learning Representations (ICLR) 2026, jednego z najważniejszych globalnych spotkań poświęconych uczeniu maszynowemu i sztucznej inteligencji. Zgodnie z analizą przeprowadzoną przez startup Panagram, który specjalizuje się w wykrywaniu tekstów stworzonych przez maszyny, skala zjawiska jest ogromna. Przeanalizowano blisko 20 tysięcy nadesłanych prac oraz ponad 75 tysięcy recenzji.
Recenzje pisane przez maszyny
Wyniki są szokujące. Zdaniem analityków z Panagram, aż 21 procent wszystkich ocen recenzyjnych mogło zostać w całości wygenerowanych przez duże modele językowe (LLM). Ponad połowa recenzji wykazywała wyraźne oznaki użycia sztucznej inteligencji. Oznacza to, że w wielu przypadkach to nie ekspert, lecz algorytm decydował o wartości i kierunku rozwoju badań innych naukowców.
AI pisze też zgłaszane prace
Choć sytuacja wygląda nieco lepiej w przypadku samych manuskryptów, to wciąż budzi poważny niepokój. Analiza wykazała, że 199 prac (około 1%) było prawdopodobnie całkowicie dziełem sztucznej inteligencji. Kolejne 9 procent artykułów zawierało więcej niż połowę treści stworzonej przez AI. Te statystyki, choć pochodzą z jednego źródła i wymagają niezależnego potwierdzenia, malują obraz głębokiego kryzysu.
Rzeczywiste konsekwencje dla naukowców
To nie są tylko abstrakcyjne liczby. Użycie AI do recenzji ma już bardzo realny, negatywny wpływ na pracę badaczy i postęp nauki. Wielu autorów, po otrzymaniu bezsensownych lub pełnych błędów ocen, wycofało swoje zgłoszenia na konferencję ICLR. Recenzje generowane przez maszyny często kompletnie mijały się z przesłaniem pracy, były nierzetelne lub zawierały fałszywe twierdzenia.
Potwierdzone przypadki i „przeczucia” badaczy
Desmond Elliott, informatyk z Uniwersytetu w Kopenhadze, opisał w rozmowie z „Nature” przypadek recenzji pracy swojego doktoranta, która zupełnie nie zrozumiała istoty badania. Sam student podejrzewał, że tekst pochodzi od LLM. Analiza Panagram oznaczająca tę recenzję jako w pełni wygenerowaną przez AI potwierdziła jego intuicję. Inicjatywa zbadania sprawy wyszła od Grahama Neubiga z Carnegie Mellon University, który również otrzymał podejrzanie wyglądającą recenzję i postanowił działać.
W obszarze AI i uczenia maszynowego mamy teraz kryzys związany z recenzowaniem, ponieważ dziedzina rozwijała się wykładniczo przez ostatnie pięć lat – stwierdził Graham Neubig w rozmowie z „Nature”.
Szerszy kontekst: problem wykracza poza akademię
Zjawisko „oszustw AI” nie ogranicza się już do sal szkolnych i uniwersyteckich, gdzie nauczyciele wracają do pisania esejów na papierze, by walczyć z ChatGPT. Problem stał się endemiczny wśród wysoko wykwalifikowanych profesjonalistów. Doniesienia z USA wskazują, że generowane przez sztuczną inteligencję treści, pełne zmyślonych cytatów i precedensów, trafiają nawet do dokumentów sądowych.
Plaga „AI workslop” w różnych branżach
Tak zwany „workslop” – czyli bezużyteczna, niskiej jakości praca wykonana przez AI – jest coraz trudniejszy do uniknięcia w sektorach IT czy consultingowych. Paradoksalnie, środowisko naukowe stojące za rozwojem tych zaawansowanych modeli językowych zaczyna odczuwać negatywne skutki ich niewłaściwego wykorzystania jako jedne z pierwszych. To sytuacja, w której narzędzie wymyka się spod kontroli swoich twórców, zagrażając integralności całej dyscypliny.
Co dalej z wiarygodnością badań nad AI?
Odkrycia dotyczące konferencji ICLR 2026 stawiają przed społecznością naukową fundamentalne pytania. Jak zapewnić rzetelność procesu recenzji, gdy recenzenci korzystają z automatycznych systemów? Jak odróżnić prawdziwy postęp badawczy od dobrze opakowanego outputu modelu językowego? Obecny system, oparty na zaufaniu i pracy ekspertów, wydaje się nieprzystosowany do ery powszechnie dostępnej, zaawansowanej sztucznej inteligencji.
Potrzeba pilnych rozwiązań – może nowych protokołów weryfikacji, zaawansowanych narzędzi detekcyjnych stosowanych przez komitety programowe, czy też głębszej refleksji etycznej w środowisku. Jedno jest pewne: jeśli naukowcy zajmujący się AI nie znajdą sposobu na obronę jakości własnych badań przed ingerencją maszyn, kryzys zaufania może zahamować rozwój tej kluczowej dla przyszłości technologii. To moment zwrotny, który zdefiniuje, czy sztuczna inteligencja będzie narzędziem wspierającym naukę, czy też czynnikiem ją destabilizującym.




