Pentagon vs. Anthropic: ryzyko łańcucha dostaw dla AI

Amerykański Departament Obrony podjął bezprecedensowy krok, który wstrząsnął światem technologii. W piątek sekretarz obrony Pete Hegseth nakazał oznaczenie firmy Anthropic, jednego z liderów rozwoju zaawansowanej sztucznej inteligencji, jako „ryzyka w łańcuchu dostaw”. Decyzja natychmiast wywołała zamieszanie wśród kontrahentów wojskowych i szerokiej społeczności technologicznej, stawiając pod znakiem zapytania przyszłość współpracy rządu z kluczowymi graczami branży AI.

Źródło konfliktu: etyczne granice zastosowań wojskowych

Bezpośrednią przyczyną eskalacji były negocjacje między Pentagonem a Anthropic dotyczące warunków, na jakich amerykańska armia mogłaby korzystać z modeli sztucznej inteligencji tej firmy, takich jak Claude. Spór dotyczył fundamentalnych kwestii etycznych. Startup opublikował stanowisko, w którym wyraźnie zaznaczył, że zawierane z Pentagonem umowy nie mogą zezwalać na wykorzystanie jego technologii do masowej inwigilacji obywateli USA ani do budowy w pełni autonomicznych systemów broni.

Żądanie Pentagonu vs. zasady Anthropic

Strona rządowa zażądała zgody na zastosowanie AI do „wszystkich zgodnych z prawem celów”, bez wprowadzania konkretnych wyjątków. Dla Anthropic, firmy znanej z priorytetyzowania bezpieczeństwa i odpowiedzialnego rozwoju AI, takie szerokie i nieprecyzyjne zezwolenie było nie do zaakceptowania. Niezgodność wizji doprowadziła do radykalnej odpowiedzi ze strony sekretarza Hegsetha, który w mediach społecznościowych ogłosił natychmiastowy zakaz prowadzenia jakiejkolwiek działalności komercyjnej z Anthropic dla wszystkich podmiotów współpracujących z wojskiem.

Czym jest „ryzyko w łańcuchu dostaw” i jakie niesie konsekwencje?

Oznaczenie jako ryzyko w łańcuchu dostaw to narzędzie prawne, które pozwala Departamentowi Obrony ograniczać lub wykluczać określonych dostawców z kontraktów obronnych. Stosuje się je, gdy dany podmiot postrzegany jest jako potencjalne zagrożenie dla bezpieczeństwa, na przykład z powodu zagranicznej kontroli czy wpływów. Jego celem jest ochrona wrażliwych systemów i danych wojskowych. W tym przypadku jednak instrument ten został użyty przeciwko amerykańskiej firmie z powodu sporu kontraktowego, co eksperci uznają za działanie wyjątkowe i kontrowersyjne.

Prawny chaos i zdezorientowani klienci

Anthropic w swoim oficjalnym komunikacie podważyło legalność decyzji, stwierdzając, że sekretarz Hegseth nie ma uprawnień ustawowych do wydania tak szerokiego zakazu. Firma zapowiedziała też, że będzie kwestionować oznaczenie w sądzie. Tymczasem w branży zapanowała niepewność. Specjaliści od prawa kontraktowego, jak Alex Major z kancelarii McCarter & English, przyznają, że ogłoszenie nie ma jasnych podstaw w znanym prawie i obecnie niemożliwe jest ustalenie, którzy klienci Anthropic musieliby zerwać współpracę.

To najbardziej szokująca, szkodliwa i przesadzona rzecz, jaką kiedykolwiek widziałem, by rząd USA zrobił – mówi Dean Ball, były doradca polityki AI w Białym Domu. – Właśnie nałożyliśmy sankcje na amerykańską firmę.

Reakcja Doliny Krzemowej i kontrastująca umowa OpenAI

Decyzja Pentagonu spotkała się z falą krytyki i niedowierzania w środowisku technologicznym. Paul Graham, założyciel akceleratora Y Combinator, ocenił działania administracji jako impulsywne i mściwe. Badacz OpenAI, Boaz Barak, określił sytuację jako najgorszą możliwą samobójczą bramkę, wyrażając nadzieję na wycofanie decyzji. Reakcje te podkreślają, jak bardzo ruch ten postrzegany jest jako atak na jeden z filarów amerykańskiej przewagi w dziedzinie sztucznej inteligencji.

Inna ścieżka: porozumienie OpenAI z Departamentem Obrony

W kontraście do sporu z Anthropic, w tym samym czasie CEO OpenAI, Sam Altman, ogłosił zawarcie porozumienia z Departamentem Obrony. Umowa zezwala na wdrożenie modeli OpenAI w środowiskach klasyfikowanych, ale – co kluczowe – zawiera wyraźne wyłączenia. Altman podkreślił, że dwie najważniejsze zasady bezpieczeństwa jego firmy, czyli zakaz masowej inwigilacji krajowej i wymóg odpowiedzialności człowieka za użycie siły (w tym w systemach broni autonomicznej), zostały odzwierciedlone w finalnej umowie. Ta równoległa sytuacja pokazuje, że możliwe są negocjacje, które uwzględniają zarówno potrzeby wojska, jak i etyczne granice ustalone przez twórców AI.

Kaleczenie jednej z naszych wiodących firm AI to najgorsza możliwa samobójcza bramka. Mam nadzieję, że zwycięży zdrowy rozsądek i zapowiedź zostanie cofnięta – stwierdził Boaz Barak, badacz OpenAI.

Perspektywy: precedens dla całej branży technologicznej

Anthropic w swoim stanowisku ostrzegło, że decyzja Pentagonu „stwarza niebezpieczny precedens dla każdej amerykańskiej firmy, która negocjuje z rządem”. Sprawa wykracza daleko poza pojedynczy kontrakt czy nawet sektor obronny. Stawia ona fundamentalne pytanie o relacje między państwem a innowacyjnym przemysłem: czy firmy technologiczne mogą być karane za obronę własnych, restrykcyjnych zasad etycznych, gdy stają one w sprzeczności z żądaniami agencji rządowych?

Wynik tego sporu będzie miał daleko idące konsekwencje. Może on zdefiniować, na jakich warunkach zaawansowana sztuczna inteligencja będzie wykorzystywana przez siły zbrojne oraz jaką autonomię w ustalaniu granicy między innowacją a odpowiedzialnością będą miały firmy ją tworzące. Dla obserwatorów i uczestników rynku AI jest to jasny sygnał, że oprócz wyzwań technicznych i komercyjnych, czekają ich również niezwykle złożone bitwy prawne i polityczne, które ukształtują przyszłość tej technologii.

Źródło