OpenAI podpisuje umowę z Pentagonem na modele AI

Świat sztucznej inteligencji wkracza w nową, strategiczną fazę, gdzie kluczowe umowy zawierane są nie tylko z korporacjami, ale także z instytucjami państwowymi. Najnowszym tego przykładem jest porozumienie pomiędzy OpenAI a amerykańskim Departamentem Obrony. Założyciel i szef OpenAI, Sam Altman, ogłosił na platformie X, że jego firma będzie dostarczać swoje modele AI do wykorzystania w sieciach tej agencji. To ruch, który stawia OpenAI w centrum rozwijającego się ekosystemu wojskowych i rządowych zastosowań zaawansowanej sztucznej inteligencji.

Zasady bezpieczeństwa w centrum umowy

Altman w swoim komunikacie szczególnie podkreślił kwestie etyczne. Zaznaczył, że do porozumienia z agencją, którą nazwał używając historycznej nazwy Departament Wojny (Department of War), włączono dwa fundamentalne zasady bezpieczeństwa OpenAI. Mają one stanowić ramy dla wszelkich przyszłych zastosowań technologii.

Zakaz masowej inwigilacji i ludzka kontrola

Pierwsza z klauzul ma całkowicie zabraniać wykorzystania modeli OpenAI do prowadzenia masowego nadzoru na terenie kraju. Druga zasada kładzie nacisk na odpowiedzialność człowieka za decyzje o użyciu siły. Oznacza to wyraźne wykluczenie zastosowań w pełni autonomicznych systemów broni, które mogłyby działać bez ostatecznej, świadomej zgody człowieka. Wpisanie tych zapisów do kontraktu z potężną instytucją wojskową stanowi istotny precedens dla całej branży.

Kontekst napięć z konkurencją i administracją

Ogłoszenie umowy z OpenAI nie jest odosobnionym wydarzeniem, lecz elementem szerszej dynamiki pomiędzy amerykańskim rządem a czołowymi firmami AI. Niedługo przed tą decyzją prezydent Donald Trump wydał rozporządzenie nakazujące wszystkim agencjom rządowym zaprzestanie korzystania z usług Anthropic, twórcy modelu Claude, oraz innych produktów tej firmy.

Stanowczy opór Anthropic

Jak podają źródła, sekretarz obrony Pete Hegseth groził wcześniej oznaczeniem Anthropic jako „ryzyka dla łańcucha dostaw”, jeśli firma nie zgodzi się na usunięcie zabezpieczeń ze swoich modeli AI. Te właśnie zabezpieczenia uniemożliwiają wykorzystanie technologii do masowej inwigilacji obywateli USA oraz w autonomicznych systemach zbrojnych. W odpowiedzi, tuż przed ogłoszeniem umowy z OpenAI, Anthropic opublikowało stanowczy komunikat, w którym odrzuca jakikolwiek nacisk. Firma zapowiedziała, że będzie się bronić przed etykietą „ryzyka” na drodze sądowej, podkreślając, że żadne zastraszanie nie zmieni jej zasad.

Żadna ilość zastraszania czy kar ze strony Departamentu Wojny nie zmieni naszego stanowiska w sprawie masowej inwigilacji krajowej lub w pełni autonomicznej broni – oświadczyło Anthropic. – Zakwestionujemy w sądzie każde oznaczenie jako ryzyko dla łańcucha dostaw.

Standardowe warunki dla wszystkich?

Sam Altman w swoim wpisie stwierdził, że warunki zaproponowane OpenAI są tymi samymi, które odrzuciło Anthropic. Jeremy Lewin, wysoki rangą urzędnik w administracji, potwierdził na platformie X, że umowy Departamentu Obrony odwołują się do istniejących przepisów prawnych i zawierają „wzajemnie uzgodnione mechanizmy bezpieczeństwa”. Według Altmana, jego firma zachęca rząd, by te same standardy zaproponować wszystkim przedsiębiorstwom AI, z którymi zamierza współpracować. Wcześniej podobną umowę na wdrożenie swojego modelu Grok w tajnych systemach podpisała również firma Elona Muska, xAI.

Techniczne i infrastrukturalne aspekty wdrożenia

Sam Altman zdradził również kilka szczegółów dotyczących praktycznej strony współpracy. Aby zapewnić zgodność działania modeli z przyjętymi zasadami, OpenAI planuje wdrożyć specjalne zabezpieczenia techniczne. Firma wyśle swoich inżynierów, aby bezpośrednio współpracowali z personelem agencji nad kwestiami bezpieczeństwa.

Wdrożenie w chmurze i nowa współpraca z AWS

Co istotne, modele OpenAI mają być wdrażane wyłącznie w środowiskach chmurowych. Jak zauważa The New York Times, OpenAI nie korzystało dotychczas z chmury Amazon, która jest powszechnie używana przez rząd USA. Ta sytuacja może się jednak szybko zmienić. Niedawno OpenAI ogłosiło bowiem strategiczne partnerstwo z Amazon Web Services (AWS), umożliwiające uruchamianie swoich modeli na tej infrastrukturze dla klientów korporacyjnych. To partnerstwo może bezpośrednio otworzyć drogę do spełnienia wymogów infrastrukturalnych Pentagonu.

Umowa OpenAI z Departamentem Obrony USA to więcej niż tylko kolejny kontrakt. To sygnał, w jaki sposób czołowe firmy AI negocjują swoje wejście do sektora publicznego, stawiając granice etyczne jako warunek nie do przecenienia. Podczas gdy OpenAI wybrało drogę zaangażowania z gwarancjami, Anthropic pozostaje na stanowczym oporze, co może prowadzić do prawnej konfrontacji. Te różne strategie zdefiniują nie tylko przyszłość tych przedsiębiorstw, ale także kształt regulacji i standardów bezpieczeństwa dla sztucznej inteligencji w najważniejszych instytucjach na świecie.

Źródło