AI na wojnie. Jak USA wykorzystuje algorytmy do celów w Iranie

Rola systemów sztucznej inteligencji w działaniach militarnych staje się coraz bardziej konkretna i operacyjna. Jak ujawniają źródła, siły zbrojne Stanów Zjednoczonych wykorzystują zaawansowane algorytmy do wspomagania identyfikacji i planowania ataków na terytorium Iranu. Ten rozwój wydarzeń wywołuje jednak poważne obawy w Kongresie, gdzie politycy z obu partii nawołują do wprowadzenia jasnych ram prawnych i wzmocnienia nadzoru nad zastosowaniami AI w kontekście wojennym.

AI jako narzędzie analizy wywiadowczej na froncie

Zgodnie z informacjami od anonimowych osób zaznajomionych z sytuacją, amerykańska armia wdraża oprogramowanie firmy Palantir, które integruje m.in. modele językowe Claude od Anthropic. System ten funkcjonuje w ramach programu analitycznego Maven, mającego na celu przetwarzanie ogromnych zbiorów danych wywiadowczych. Jego zadaniem nie jest bezpośrednie rekomendowanie celów, lecz pomoc w sortowaniu i analizie informacji, co tradycyjnie zajmowało analitykom wiele godzin, a nawet dni.

Przyspieszenie decyzji, ale nie ich automatyzacja

Wysocy rangą dowódcy, jak admirał Brad Cooper z Dowództwa Centralnego USA, przyznają, że sztuczna inteligencja stała się kluczowym elementem pozwalającym na szybsze i sprawniejsze podejmowanie decyzji. Technologia umożliwia filtrowanie „szumu informacyjnego” i prezentowanie skondensowanych wniosków. Pentagon stanowczo podkreśla, że to człowiek – żołnierz lub oficer – zachowuje ostateczną władzę nad każdą decyzją o użyciu siły. AI ma jedynie usprawniać procesy w tle.

Ludzie zawsze będą podejmować ostateczne decyzje, co wystrzelić, a czego nie, i kiedy to zrobić. Jednak zaawansowane narzędzia AI mogą przekształcić procesy, które zajmowały godziny, a czasem nawet dni, w sekundy – stwierdził admirał Brad Cooper.

Rosnące obawy legislatorów i ekspertów

Mimo zapewnień wojskowych, wielu amerykańskich parlamentarzystów wyraża głęboki niepokój. Ich zdaniem samo deklarowanie zasady „człowieka w pętli” (human-in-the-loop) nie wystarczy. Potrzebne są konkretne, prawnie umocowane zabezpieczenia, które zagwarantują, że technologia nie przejmie inicjatywy w sytuacjach o konsekwencjach życia lub śmierci.

Wezwania do przejrzystości i niezależnych przeglądów

Kongresmenka Jill Tokuda z Hawajów, zasiadająca w Izbie Reprezentantów w komisji sił zbrojnych, zaapelowała o „pełny, bezstronny przegląd” w celu ustalenia, czy AI już nie zaszkodziła lub nie naraziła żyć w konflikcie z Iranem. Podobny ton brzmi w wypowiedzi senator Elissy Slotkin z Michigan, która wskazuje na brak wystarczającej przejrzystości co do tego, jak ludzie weryfikują analizy generowane przy wsparciu sztucznej inteligencji.

Problem niedoskonałości i nadmiernego zaufania do systemów

Eksperci zwracają uwagę na fundamentalne ograniczenia obecnej generacji AI. Modele językowe są podatne na tzw. halucynacje, czyli generowanie nieprawdziwych lub zmyślonych informacji. Kongresmenka Sara Jacobs z Kalifornii ostrzega, że narzędzia AI nie są w 100% niezawodne, a operatorzy mają tendencję do nadmiernego polegania na ich sugestiach. Heidy Khlaaf, główna naukowiec z Instytutu AI Now, krytykuje argument „prędkości” jako strategicznej, widząc w nim potencjalne usprawiedliwienie dla mniej precyzyjnego targetowania.

Napięcia na linii Pentagon – firmy AI

Wdrożenie systemów AI w armii USA nie odbywa się bez wewnętrznych tarć. Firma Anthropic, twórca modelu Claude, próbowała nałożyć ograniczenia na militarne wykorzystanie swojej technologii, szczególnie w obszarze nadzoru krajowego i autonomicznej broni. Doprowadziło to do sporu z sekretarzem obrony Pete’m Hegseth’em. Reakcją Pentagonu było niedawne oznaczenie Anthropic jako „zagrożenia dla bezpieczeństwa narodowego”, co może skutkować wykluczeniem firmy z projektów obronnych. Anthropic zakwestionowało tę decyzję w sądzie.

Mark Beall, były dyrektor ds. strategii AI w Pentagonie, a obecnie szef ds. rządowych w AI Policy Network, przyznaje, że technologia skutecznie przyspiesza istniejące procesy. Jednocześnie zaznacza, że gdy chodzi o bezpośrednie użycie systemów broni, AI „nie jest jeszcze gotowa”. Jego zdaniem, w miarę jak systemy staną się lepsze, a rywale również zaczną z nich korzystać, pojawi się presja na skrócenie czasu weryfikacji ich wyników. „Musimy rozwiązać problem ich niezawodności, zanim do tego dojdziemy” – podsumowuje.

Balans między przewagą strategiczną a odpowiedzialnością

Debata w USA odsłania szerszy dylemat stojący przed światowymi mocarstwami: jak wykorzystać potencjał sztucznej inteligencji do zdobycia przewagi na polu walki, nie rezygnując jednocześnie z etycznych zasad i kontroli nad losowymi decyzjami. Politycy tacy jak republikanin Pat Harrigan z Karoliny Północnej podkreślają, że AI to jedynie narzędzie wzmacniające możliwości żołnierza, a nie jego substytut. Z drugiej strony, senator Kirsten Gillibrand z Nowego Jorku wprost wzywa do ustanowienia wyraźnych reguł, argumentując, że bez „wyraźnych zabezpieczeń” nie ma pewności co do odpowiedzialnego użycia AI przez resort obrony.

Wnioski są jasne: era AI na wojnie już nadeszła. Kluczowe systemy analityczne są zasilane przez najnowocześniejsze modele językowe, a dowódcy chwalą się wzrostem tempa operacji. Jednak równolegle rośnie świadomość ryzyk – od technicznych niedoskonałości algorytmów po potencjalne luki w rozliczalności. Ostateczny kształt militarnego wykorzystania sztucznej inteligencji będzie zależał nie tylko od postępu technologicznego, ale przede wszystkim od ram prawnych i standardów etycznych, które uda się wypracować i egzekwować. To właśnie ten ludzki, legislacyjny wysiłek może okazać się decydujący dla bezpiecznego współistnienia AI i człowieka w najtrudniejszych scenariuszach.

Źródło