W świecie sztucznej inteligencji polityka i etyka coraz częściej splatają się z technologią. Ostatnie wydarzenia w Stanach Zjednoczonych dosadnie to pokazują. W ciągu zaledwie jednego dnia administracja prezydenta Donalda Trumpa nałożyła zakaz na wykorzystywanie rozwiązań jednej wiodącej firmy AI, by następnie ogłosić współpracę z jej głównym konkurentem. Ta szybko zmieniająca się sytuacja rzuca nowe światło na to, jak rządy chcą korzystać z zaawansowanych modeli językowych i na jakich zasadach.
Dzień dwóch decyzji: zakaz i porozumienie
W piątek późnym wieczorem Sam Altman, prezes OpenAI, ogłosił na platformie X, że jego firma podpisała umowę z Departamentem Obrony USA. Jej celem jest wdrożenie narzędzi opartych na sztucznej inteligencji do systemów klasyfikowanych amerykańskiej armii. Co istotne, porozumienie ma obejmować konkretne zabezpieczenia etyczne, o które wcześniej zabiegała inna firma.
Administracyjny zakaz dla Anthropic
Ta sama decyzja zapadła tego samego dnia, w którym prezydent Donald Trump wydał rozporządzenie dla wszystkich agencji federalnych, nakazujące zaprzestanie korzystania z rozwiązań AI oferowanych przez firmę Anthropic. Sekretarz obrony, Pete Hegseth, posunął się nawet dalej, oznaczając Anthropic jako „ryzyko dla łańcucha dostaw”. Taka klasyfikacja jest zwykle zarezerwowana dla podmiotów mających bezpośrednie powiązania z zagranicznymi przeciwnikami. Decyzja ta była konsekwencją nieugiętej postawy Anthropic w negocjacjach z Pentagonem, gdzie firma nalegała na wprowadzenie ścisłych ograniczeń dotyczących zastosowań wojskowych.
Zasady etyczne w centrum umowy OpenAI
W swoim oświadczeniu Sam Altman wyraźnie wskazał, jakie fundamentalne zasady bezpieczeństwa legły u podstaw porozumienia z wojskiem. Zostały one bezpośrednio wpisane do kontraktu, co stanowi istotny precedens dla przyszłych umów sektora publicznego z dostawcami AI.
Kluczowe zakazy i gwarancje
Altman wymienił dwie główne zasady, które są dla OpenAI priorytetem. Po pierwsze, jest to całkowity zakaz wykorzystywania modeli do masowej inwigilacji obywateli na terenie kraju. Po drugie, firma insystuje na zachowaniu odpowiedzialności człowieka za użycie siły, co w praktyce wyklucza zastosowanie jej technologii w pełni autonomicznych systemach broni. Według prezesa OpenAI, Pentagon nie tylko się z tymi zasadami zgadza, ale również znajduje dla nich odzwierciedlenie w istniejącym prawie i polityce wewnętrznej.
Zabezpieczenia techniczne i ludzkie
Umowa nie opiera się wyłącznie na zapisach prawnych. OpenAI zobowiązało się do wdrożenia technicznych zabezpieczeń, które mają zapewnić, że modele będą działać zgodnie z ustalonymi regułami. Co ciekawe, Altman zapowiedział również wysłanie do Pentagonu własnych inżynierów. Ich zadaniem będzie bezpośredni nadzór nad wdrożeniem i zapewnienie bezpieczeństwa systemów w praktyce.
„Kiedy chodzi o sprawy życia i śmierci naszych żołnierzy, posiadanie wiarygodnego i stabilnego partnera, który działa w dobrej wierze, robi całą różnicę, gdy wkraczamy w erę sztucznej inteligencji” – stwierdził podsekretarz Emil Michael, odpowiedzialny w Pentagonie za technologię.
Reakcje i konsekwencje dla branży AI
Ogłoszenie Altmana spotkało się z natychmiastową reakcją ze strony władz. Sekretarz Hegseth udostępnił je na swojej platformie X, co można odczytać jako gest poparcia. Sam prezes OpenAI zaapelował jednak, aby Departament Obrony zaoferował identyczne warunki wszystkim firmom zajmującym się sztuczną inteligencją. Wyraził również nadzieję, że sytuacja nie będzie się dalej eskalować za pomocą środków prawnych i administracyjnych, lecz znajdzie rozwiązanie na drodze rozsądnych negocjacji i porozumień.
Odpowiedź Anthropic i niewyjaśnione różnice
Tymczasem Anthropic zapowiedziało zamiar prawnego zakwestionowania decyzji o uznaniu firmy za „ryzyko dla łańcucha dostaw”. Taka klasyfikacja zmusiłaby wszystkich podwykonawców wojskowych do udowodnienia, że ich prace nie są powiązane z produktami Anthropic, co jest praktycznie niemożliwym do spełnienia wymogiem. Główną niewiadomą pozostaje to, czym dokładnie umowa OpenAI różni się od warunków, których domagało się Anthropic. Obie firmy zdawały się obstawać przy bardzo podobnych ograniczeniach etycznych, lecz tylko jedna spotkała się z dotkliwymi sankcjami.
Nowy rozdział w relacjach państwo–technologia
Te jednoczesne, sprzeczne na pierwszy rzut oka decyzje, wyznaczają ważny moment dla całej branży. Pokazują, że rządy są gotowe na współpracę z firmami AI, ale na ściśle określonych warunkach, gdzie zasady etyczne stają się klauzulami umownymi. Jednocześnie ujawniają ryzyko politycznej zmienności i potencjalnych podwójnych standardów. Dla firm działających na tym polu jasnym sygnałem jest konieczność wypracowania przejrzystych standardów bezpieczeństwa, które będą akceptowalne zarówno dla nich, jak i dla instytucji publicznych. Dalszy rozwój sytuacji pomiędzy Anthropic a administracją federalną może stworzyć precedens prawny, który ukształtuje przyszłość kontraktów AI w sektorze obronnym na lata.
