Ponad trzy lata po debiucie ChatGPT, generatywna sztuczna inteligencja stała się codziennością również na akademickich korytarzach. Wykładowcy i studenci wciąż jednak szukają odpowiedzi na fundamentalne pytania: jak z niej korzystać, czy w ogóle powinno się to robić, a zwłaszcza na zajęciach z humanistyki. Powstaje mozaika indywidualnych zasad, często sprzecznych ze sobą, które odzwierciedlają głęboki podział w postrzeganiu roli AI w edukacji.
Obóz sceptyków: AI jako zagrożenie dla rozwoju myślenia
Dla części profesorów wykorzystanie generatywnej AI do tworzenia prac pisemnych jest równoznaczne z oszukiwaniem samego siebie z procesu edukacji. Dan Cryer, wykładowca języka angielskiego w Johnson County Community College, porównuje to do wjazdu wózkiem widłowym na siłownię. Jego zdaniem, choć maszyna skutecznie przeniesie ciężary, to właśnie wysiłek mięśni – czyli proces pisania – jest kluczowy dla rozwoju intelektualnego.
Nowy rodzaj pracy dla wykładowców
Cryer zwraca uwagę na dodatkowe, nieprzewidziane obciążenie, które spadło na nauczycieli akademickich. Coraz więcej czasu muszą poświęcać na weryfikację, czy praca oddana przez studenta jest rzeczywiście jego autorstwa. Paradoksalnie, problem jest spotęgowany przez fakt, że wiele uczelni, w tym jego community college, zapewnia studentom oficjalny dostęp do narzędzi AI. Dla wykładowcy oznacza to nieustanne balansowanie na granicy zaufania i czujności.
Proces ważniejszy niż produkt
Po urlopie naukowym poświęconym na badanie generatywnej AI, Cryer utwierdził się w przekonaniu, że edukatorzy powinni używać jej jak najmniej. Jego zdaniem głównym celem tych narzędzi jest często zwolnienie użytkownika z konieczności intensywnego myślenia. Dlatego teraz więcej energii inwestuje w przekonywanie studentów, że wartość edukacji tkwi w samym procesie – w nauce konstruowania logicznej argumentacji, oceny wiarygodności źródeł i precyzyjnego wyrażania myśli. Społeczeństwo nie potrzebuje kolejnych esejów, potrzebuje krytycznych, samodzielnych umysłów.
„Jeśli studenci polegają na AI, która wykonuje za nich pracę, mogą w efekcie zostać oszukani z edukacji, na którą się zapisali” – mówi Dan Cryer, profesor języka angielskiego.
Obóz współpracy: AI jako etyczny partner w nauce
Zupełnie inną perspektywę reprezentuje Leslie Clement, profesor z historycznie czarnego Johnson C. Smith University. Dla niej generatywna AI to potężny współpracownik, który może wzbogacić proces uczenia, pod warunkiem odpowiedzialnego wykorzystania. Clement zachęca studentów do korzystania z tych technologii, wychodząc z założenia, że i tak z nich skorzystają. Kluczowe jest jednak pokazanie im, jak to robić w sposób etyczny i konstruktywny.
Od konspektów po Afrofuturyzm
W swojej praktyce Clement pozwala studentom używać AI do tworzenia konspektów prac, zbierania informacji zwrotnej na temat pomysłów czy porównywania różnych źródeł. Jej podejście wykracza jednak daleko poza technikę pisania. Współtworzyła kurs „African Diaspora and AI”, który bada wpływ sztucznej inteligencji na osoby pochodzenia afrykańskiego na całym świecie. Program porusza zarówno mroczne strony, jak niebezpieczne wydobycie kobaltu w Kongu, jak i potencjalne korzyści oraz wkład czarnych naukowców w rozwój tej dziedziny. AI staje się tu narzędziem do krytycznej refleksji i ponownego wyobrażania sobie przyszłości w duchu Afrofuturyzmu.
„Chcę, aby studenci nie tylko używali narzędzi AI dla dobra, ale także je kwestionowali” – podkreśla Leslie Clement, profesor z Johnson C. Smith University.
Głos studentów: osobisty tutor i granica własnego stylu
Praktyka pokazuje, że studenci sami wypracowują własne, często bardzo wyrafinowane zasady korzystania z AI. Anjali Tatini, studentka neurobiologii i zdrowia globalnego na Duke University, traktuje chatbota Gemini jak osobistego korepetytora dostępnego 24/7. Pomaga jej on tłumaczyć skomplikowane pojęcia z biologii, generować zadania treningowe do chemii czy nawet pisać fragmenty kodu do analiz statystycznych. Dla obciążonej obowiązkami studentki to wybawienie, które zastępuje wizyty w godzinach pracy profesorów.
Linia, której się nie przekracza
Mimo szerokiego zastosowania, Tatini wyznacza jasną granicę: AI nie pisze za nią. Narzędzia służą do organizacji myśli i tworzenia konspektów, ale ostateczny tekst musi być wyłącznie jej autorstwa. Podobnie uważa Hannah Elder, studentka prawa z University of North Carolina. Dla niej umiejętność formułowania i artykułowania własnych myśli jest najcenniejszą zdobyczą studiów. Używa AI wyłącznie do korekty językowej i sprawdzania zgodności pracy z wymogami formalnymi. Obawia się, że zbytnie poleganie na sztucznej inteligencji może pozbawić jej rówieśników możliwości nauczenia się samodzielnego myślenia.
Elder nie opowiada się jednak za całkowitym zakazem. Uważa, że skoro AI stała się elementem rzeczywistości, uczelnie powinny włączyć jej naukę do programu, jasno pokazując różnicę między korzystaniem a nadużyciem. Gdy nauczyciele włączą ją w sposób odpowiedzialny do akademickiego życia, przestanie być postrzegana jako „kod na łatwą piątkę”, a stanie się kolejnym narzędziem wspierającym rozwój.
Poszukiwanie nowej równowagi w erze AI
Sondaż Inside Higher Ed i Generation Lab z lipca ubiegłego roku ujawnia skalę zjawiska: około 85% studentów używa AI w związku z zajęciami, a 19% przyznaje się do napisania nią całych esejów. Ponad połowa z tych, którzy korzystają, ma mieszane uczucia – widzi pomoc, ale i ryzyko płytszego myślenia. To odzwierciedla dylemat całej akademii.
Przed środowiskiem akademickim stoi trudne zadanie wypracowania spójnych, etycznych zasad, które nie będą jedynie zakazami, ale mapą nawigacyjną po nowym krajobrazie edukacji. Jak pokazują przykłady, rozwiązaniem nie jest ani ślepe entuzjastyczne przyjęcie, ani całkowite odrzucenie technologii. Kluczowe wydaje się zachowanie sedna procesu edukacyjnego – rozwoju krytycznego, samodzielnego myślenia – przy jednoczesnym mądrym włączeniu nowych narzędzi jako partnerów w tym procesie. Ostateczny kształt tej równowagi dopiero się wyłania.

