Wewnątrz amerykańskiego Departamentu Obrony doszło do głośnego sporu, który odsłonił nieoczekiwane ryzyko związane z wdrażaniem zaawansowanej sztucznej inteligencji. Punktem zapalnym nie była awaria systemu, lecz proste pytanie zadane przez dostawcę technologii. To zdarzenie zmusiło najwyższych rangą dowódców do bolesnej konstatacji: kluczowe operacje militarne stały się zależne od pojedynczej firmy z Doliny Krzemowej, bez solidnego planu awaryjnego.
Pytanie, które wstrząsnęło Pentagonem
Wszystko zaczęło się na początku stycznia po udanej amerykańskiej operacji w Wenezueli. Niedługo później firma Anthropic, twórca modelu językowego Claude, zwróciła się do przedsiębiorstwa Palantir z zapytaniem, czy jej sztuczna inteligencja została wykorzystana podczas tej akcji. Dla Anthropic była to rutynowa kontrola zgodności z zasadami użycia. Jednak w korytarzach Pentagonu to pytanie odczytano zupełnie inaczej – jako potencjalne zagrożenie dla ciągłości dostępu do niezbędnego narzędzia.
Moment olśnienia dla dowództwa
Emil Michael, podsekretarz ds. badań i inżynierii oraz główny dyrektor technologiczny Departamentu Obrony, opisał reakcję kierownictwa. Wyobraźnia strategiczna natychmiast nakreśliła czarny scenariusz: co by się stało, gdyby oprogramowanie nagle zawiodło podczas kolejnej krytycznej misji z powodu wbudowanych zabezpieczeń lub celowej dezaktywacji? To właśnie ta wizja pozostawienia żołnierzy bez wsparcia kluczowej technologii była przełomowym „momentem olśnienia” dla całego kierownictwa Pentagonu.
„Pomyślałem: o cholera, co jeśli to oprogramowanie przestanie działać podczas kolejnej takiej walki i narazimy naszych ludzi na niebezpieczeństwo? To był ten moment 'whoa’ dla całego kierownictwa Pentagonu, gdy zrozumieliśmy, że jesteśmy potencjalnie tak zależni od jednego dostawcy oprogramowania, bez żadnej alternatywy” – wspominał Emil Michael.
Kulturowa przepaść i twarde stanowiska
Konflikt uwypuklił głęboką różnicę wartości między światem obronności a środowiskiem technologicznym z Silicon Valley. Firma Anthropic, choć deklaruje patriotyzm i chęć obrony Stanów Zjednoczonych, od początku stawiała wyraźne granice. Jej zasady zabraniają wykorzystywania modelu Claude do masowej inwigilacji na terenie kraju oraz w pełni autonomicznych systemów broni.
Brak kompromisu prowadzi do rozłamu
Pentagon stanowczo utrzymywał, że używa AI wyłącznie w zgodzie z prawem, i odmówił akceptowania jakichkolwiek dodatkowych ograniczeń narzucanych przez firmę, które wykraczałyby poza obowiązujące przepisy. Brak porozumienia w tej fundamentalnej kwestii doprowadził do otwartego konfliktu. Prezydent Donald Trump wydał rozkaz zaprzestania używania rozwiązań Anthropic w administracji federalnej, dając Departamentowi Obrony pół roku na wycofanie technologii. Dodatkowo firma została oficjalnie uznana za ryzyko dla łańcucha dostaw, co uniemożliwia kontraktorom wojskowym korzystanie z jej usług.
Strategia redundancji i nowi gracze
W odpowiedzi na wykrytą krytyczną słabość Pentagon natychmiast rozpoczął działania mające na celu dywersyfikację dostawców sztucznej inteligencji. Kluczowym celem stało się stworzenie systemu nadmiarowości, aby uniknąć ponownej zależności od jednego źródła.
Poszukiwanie alternatyw i ryzyko zatrutych modeli
Emil Michael skontaktował się z firmą OpenAI, która ostatecznie zawarła z Pentagonem porozumienie na podobnych zasadach, jakie wcześniej proponowało Anthropic. Do grona dostawców AI dla środowisk tajnych dołączyła również firma xAI Elona Muska. Trwają także starania, aby dopuścić do użytku w ściśle tajnych warunkach modele Google’a. Michael podkreśla, że chodzi o równy dostęp dla wszystkich na identycznych warunkach, ponieważ Pentagon pilnie potrzebuje redundancji. Zwrócił również uwagę na inne niebezpieczeństwo: ryzyko, że nieuczciwy programista mógłby celowo „zatruć” model, sprawiając, że ten generowałby błędne informacje lub przestał wykonywać polecenia.
Głębokie zakorzenienie i zmiana priorytetów
Michael przyznał, że technologia Anthropic zdążyła się już „głęboko zakorzenić” w strukturach departamentu. Firma wyróżniała się agresywnym podejściem do klientów korporacyjnych, oferując im wsparcie wyspecjalizowanych inżynierów na miejscu, czego nie robiły w takim stopniu inne przedsiębiorstwa. To bezpośrednie zaangażowanie przyspieszyło integrację, ale też pogłębiło zależność.
Rezonans w branży i przyszłość AI w obronności
Spór nie pozostał bez echa w środowisku technologicznym. W sobotę główna inżynier robotyki w OpenAI, Caitlin Kalinowski, ogłosiła rezygnację, powołując się na obawy identyczne z tymi, które wyrażało Anthropic. W swoim poście podkreśliła, że wykorzystanie AI do inwigilacji obywateli bez nadzoru sądowego oraz do broni autonomicznej bez wyraźnej autoryzacji człowieka to granice, które wymagają głębszej debaty społecznej.
„To nie była łatwa decyzja. Sztuczna inteligencja odgrywa ważną rolę w bezpieczeństwie narodowym. Jednak inwigilacja Amerykanów bez nadzoru sądowego oraz śmiertelna autonomia bez autoryzacji człowieka to granice, które zasługiwały na więcej namysłu, niż otrzymały” – napisała Caitlin Kalinowski.
Obecnie, w trakcie konfliktu z Iranem, wojsko nadal korzysta z modelu Claude, który pomaga żołnierzom w szybkiej identyfikacji potencjalnych celów. Incydent z Anthropic stał się jednak jasnym sygnałem dla establishmentu obronnego. Przyszłość wykorzystania zaawansowanej AI w sektorze bezpieczeństwa narodowego nie będzie polegać na wyborze jednego, najlepszego dostawcy, lecz na budowaniu elastycznego ekosystemu technologii, gdzie konkurencja i nadmiarowość stanowią gwarancję ciągłości operacji. To także początek trudnej, globalnej dyskusji na temat etycznych ram, w jakich najpotężniejsze algorytmy mogą być stosowane na polu walki.

