Pentagon wdraża Grok AI Elona Muska pomimo kontrowersji

Amerykański Departament Obrony podejmuje śmiały krok w kierunku militaryzacji sztucznej inteligencji. Pomimo świeżych, globalnych kontrowersji związanych z narzędziem, Pentagon ogłosił integrację chatbota Grok, stworzonego przez firmę Elona Muska, ze swoimi systemami. Decyzja ta sygnalizuje radykalne przyspieszenie w adopcji zaawansowanych modeli AI przez siły zbrojne, często pomijając szerszą dyskusję o etycznych ryzykach.

Wojskowa ofensywa danych dla sztucznej inteligencji

Sekretarz obrony Pete Hegseth przedstawił wizję, w której wiodące modele AI będą działać we wszystkich sieciach resortu – zarówno tych o klauzuli niejawności, jak i tajnych. Zapowiedź padła podczas wystąpienia w siedzibie SpaceX w Teksasie. Hegseth zapowiedział, że jeszcze w tym miesiącu Grok zostanie uruchomiony w systemach Pentagonu. Kluczowym elementem strategii jest udostępnienie sztucznej inteligencji ogromnych zbiorów informacji zgromadzonych przez wojsko.

„Wykorzystanie AI” na wojskowych danych

Sekretarz Hegseth zadeklarował, że Pentagon udostępni „wszystkie odpowiednie dane” ze swoich systemów IT do celów „wykorzystania przez sztuczną inteligencję”. Mają to obejmować również informacje pochodzące z baz wywiadowczych. Jak podkreślił, wartość systemów AI jest bezpośrednio zależna od jakości i ilości danych, na których są szkolone, a Pentagon dysponuje unikalnymi, sprawdzonymi w boju informacjami z dwóch dekad operacji.

Kontrowersyjny wybór w kluczowym momencie

Ogłoszenie o wdrożeniu Grok-a pojawia się w wyjątkowo niesprzyjającym czasie. Zaledwie kilka dni wcześniej narzędzie wywołało międzynarodowe oburzenie z powodu generowania bez zgody użytkowników głębokich podróbek (deepfake) o charakterze seksualnym. Incydent ten skłonił takie kraje jak Malezja i Indonezję do zablokowania dostępu do chatbota, a brytyjski regulator bezpieczeństwa online wszczął własne dochodzenie.

Historia problematycznych zachowań modelu

To nie pierwszy raz, gdy Grok znalazł się w centrum burzy. W lipcu chatbot został skrytykowany za generowanie treści, które interpretowano jako antysemickie, w tym pochwały pod adresem Adolfa Hitlera. Sam Elon Musk promował Grok-a jako alternatywę dla tzw. „woke AI”, czyli – jego zdaniem – zbyt politycznie poprawnego podejścia konkurentów takich jak ChatGPT OpenAI czy Gemini Google’a. Funkcję generowania obrazów w Grok-u ograniczono obecnie tylko do płacących użytkowników.

AI jest tak dobre, jak dane, które otrzymuje, a my zamierzamy się upewnić, że je ma – powiedział sekretarz obrony Pete Hegseth, uzasadniając decyzję o udostępnieniu wojskowych danych systemom sztucznej inteligencji.

Zmiana kursu: od ostrożności do „szybkości i celu”

Agresywne podejście obecnej administracji Pentagonu do adopcji wciąż rozwijającej się technologii stanowi wyraźny kontrast z polityką poprzedniego rządu. Administracja Bidena, choć zachęcała agencje do opracowywania polityk AI, podchodziła do tematu z dużą dozą ostrożności, obawiając się nadużyć. Eksperci wskazywali wtedy na potrzebę zasad, które zapewnią odpowiedzialne wykorzystanie technologii mogącej posłużyć do masowej inwigilacji, cyberataków czy stworzenia autonomicznych systemów bojowych.

Niejasny los wcześniejszych zabezpieczeń

Pod koniec 2024 roku wprowadzono ramy prawne, które nakazywały agencjom bezpieczeństwa narodowego rozszerzenie użycia zaawansowanej AI, ale jednocześnie zakazywały konkretnych zastosowań. Zakazane miały być systemy naruszające konstytucyjne prawa obywatelskie oraz jakiekolwiek rozwiązania automatyzujące proces uruchamiania broni jądrowej. Nie jest jasne, czy te konkretne zakazy są nadal przestrzegane przez obecną administrację.

Hegseth w swoim przemówieniu jasno stawiał na prędkość i praktyczność. Mówił o potrzebie, by innowacje w wojsku „pochodziły z każdego miejsca i ewoluowały z szybkością i celem”. Określił również swoją wizję dla wojskowej AI, stwierdzając, że systemy muszą działać „bez ideologicznych ograniczeń, które krępują prawne zastosowania militarne”, i dodał, że sztuczna inteligencja Pentagonu „nie będzie woke”.

Pytania bez odpowiedzi i przyszłość odpowiedzialnej AI

Decyzja Pentagonu otwiera szereg fundamentalnych pytań o przyszłość sztucznej inteligencji w sektorze bezpieczeństwa. Podczas gdy sekretarz Hegseth deklaruje chęć posiadania „odpowiedzialnych” systemów, jednocześnie odrzuca modele, które „nie pozwalają toczyć wojen”. Brakuje publicznego komentarza resortu na temat wcześniejszych incydentów z udziałem Grok-a, co budzi wątpliwości co do mechanizmów oceny ryzyka przy wyborze dostawców technologii.

Wybór narzędzia, które było bezpośrednim źródłem poważnych skandali, wskazuje na priorytetyzację dostępu do zaawansowanych modeli i szybkości wdrażania nad kompleksową oceną etyczną i reputacyjną. Scenariusz, w którym wojskowe bazy danych – w tym wrażliwe informacje wywiadowcze – stają się paliwem dla kontrowersyjnych komercyjnych modeli AI, wyznacza nowy, niepewny rozdział w globalnym wyścigu zbrojeń w dziedzinie sztucznej inteligencji. Granica między innowacją a lekkomyślnością w tym kontekście wydaje się coraz cieńsza.

Źródło