Dlaczego badacze odchodzą z OpenAI? Analiza kryzysu

Świat sztucznej inteligencji obserwuje niepokojący trend. Z wiodących firm, takich jak OpenAI, Anthropic czy xAI, regularnie odchodzą kluczowi badacze i inżynierowie. Ich rezygnacje często poprzedzają publiczne deklaracje, w których kwestionują kierunek rozwoju technologii lub strategię biznesową swoich byłych pracodawców. Najnowszy głośny przypadek to odejście badaczki OpenAI, Zoë Hitzig, które rzuca światło na wewnętrzne napięcia w firmie odpowiedzialnej za ChatGPT.

Rezygnacja w proteście przeciwko reklamom

Bezpośrednim powodem, dla którego Zoë Hitzig opuściła OpenAI, była ogłoszona przez firmę decyzja o wprowadzeniu reklam do ChatGPT. To radykalna zmiana kursu, biorąc pod uwagę, że jeszcze dwa lata temu prezes Sam Altman określał reklamy w chatbotach jako „ostatnią deskę ratunku”. Dziś, wobec miliardowych strat ponoszonych każdego kwartału, firma sięga po ten środek. Dla Hitzig problemem nie jest sama etyka reklam jako źródła przychodów dla kosztownej infrastruktury AI, lecz szersza strategia i długoterminowe ryzyko.

Manipulacja oparta na intymnych danych

W eseju opublikowanym w „New York Times” Hitzig wyjaśniła swoje obawy. Podkreśliła, że ludzie powierzają chatbotom niezwykle osobiste informacje: obawy zdrowotne, problemy w związkach, a nawet przemyślenia na temat wiary i życia po śmierci. Archiwum takich rozmów staje się potencjalnie potężnym narzędziem do manipulacji użytkownikami. Badaczka obawia się, że choć pierwsza generacja reklam ma być wyraźnie oznaczona i umieszczana na dole odpowiedzi, przyszłe iteracje mogą już nie respektować tych zasad.

Reklama oparta na tym archiwum stwarza potencjał do manipulowania użytkownikami w sposób, którego nie potrafimy nawet zrozumieć, a co dopiero mu zapobiec – argumentowała Hitzig.

Porównanie do wielkich platform społecznościowych

Hitzig przywołała przykład Facebooka, który początkowo obiecywał użytkownikom kontrolę nad ich danymi, by później radykalnie odejść od tej zasady. Jej zdaniem kluczowe pytanie nie brzmi „reklamy tak czy nie”, lecz czy uda się zaprojektować struktury, które nie wykluczą ludzi z dostępu do tych narzędzi i nie zamienią ich wyłącznie w przedmiot manipulacji konsumenckiej. Wierzy, że jest to możliwe, ale nie widzi tej wizji realizowanej w obecnej strategii OpenAI.

Szerszy trend w branży AI

Odejście Hitzig nie jest odosobnionym incydentem, a częścią szerszego zjawiska odpływu talentów z czołowych firm sektora. W OpenAI w ciągu ostatniego roku odeszło już kilku znaczących pracowników. Ekonomista Tom Cunningham wyrażał publicznie obawy, że rozwój AI może negatywnie wpłynąć na gospodarkę. Inżynier Calvin French-Owen, współtwórca agenta kodowania Codex, opisywał po swoim odejściu atmosferę korporacyjnego chaosu za kulisami firmy.

Rozwiązanie zespołu ds. bezpieczeństwa i konkurencyjne napięcia

Kontekst dopełniają doniesienia o rozwiązaniu w OpenAI zespołu odpowiedzialnego za „misję i bezpieczeństwo” (mission alignment team), który miał czuwać, by sztuczna inteligencja ogólna (AGI) służyła całej ludzkości. Jego szef, Joshua Achiam, objął teraz funkcję „głównego futurologa”. Tymczasem na zewnątrz wybuchła krótka wojna na słowa. Konkurencyjne Anthropic wyemitowało reklamy sugerujące, że „reklamy nadchodzą do AI”, ale nie do ich chatbota Claude’a. Sam Altman uznał to za nieszczere i oskarżył Anthropic o dwulicowość.

Nie tylko OpenAI: kryzys w Anthropic i xAI

Problemy z utrzymaniem kluczowych pracowników dotykają także innych gigantów. Z Anthropic odszedł badacz Mrinank Sharma, który w liście rezygnacyjnym na platformie X, choć pozbawionym szczegółów, wyrażał głębokie obawy dotyczące bezpieczeństwa rozwijanej technologii. Napisał, że zbliżamy się do progu, gdzie nasza mądrość musi rosnąć w równym stopniu, co nasza zdolność do wpływania na świat.

Masowe odejścia współzałożycieli xAI

Najbardziej spektakularny przypadek ma miejsce w firmie Elona Muska, xAI. Co najmniej połowa z dwunastu współzałożycieli opuściła już przedsiębiorstwo. Dwóch z nich ogłosiło rezygnację publicznie w ciągu zaledwie 24 godzin. Co ciekawe, w ich oświadczeniach nie pojawiły się wątki bezpieczeństwa, co sugeruje, że powody były inne niż zasady. Dzieje się to w czasie, gdy chatbot firmy, Grok, jest uwikłany w skandal związany z rozpowszechnianiem głębokich podróbek (deepfake) o charakterze pornograficznym i materiałów przedstawiających seksualne wykorzystywanie dzieci (CSAM).

Desperackie poszukiwanie modelu biznesowego

Łączącym te wszystkie wątki czynnikiem wydaje się być presja ekonomiczna. OpenAI, Anthropic i xAI łączy jedno: desperackie poszukiwanie rentownego modelu biznesowego przy astronomicznych kosztach rozwoju i utrzymania zaawansowanych modeli językowych (LLM). Wprowadzenie reklam przez OpenAI jest jednym z przejawów tej presji. Odpływ talentów w tak kluczowym momencie może być sygnałem wewnętrznego kryzysu wartości, gdy pionierski duch zderza się z twardymi realiami biznesu i odpowiedzialności.

Odejścia badaczy z czołowych firm AI to coś więcej niż zwykła rotacja pracowników. To symptomy głębszych napięć między komercjalizacją, bezpieczeństwem i etycznym rozwojem technologii. Publiczne listy rezygnacyjne, takie jak ten autorstwa Zoë Hitzig, stają się ważnymi głosami w debacie o przyszłości AI. Pokazują, że dla części twórców tej technologii priorytety wykraczają poza zysk i konkurencję rynkową, dotykając fundamentalnych kwestii zaufania, manipulacji i wpływu na społeczeństwo. Kolejne miesiące pokażą, czy firmy zareagują na te sygnały, czy też trend odpływu kluczowych umysłów będzie się pogłębiał.

Źródło