Grok i X pod ostrzałem za seksualne deepfake’owe obrazy

Fala nieautoryzowanych, seksualnych obrazów generowanych przez sztuczną inteligencję, przedstawiających prawdziwe osoby, doprowadziła do poważnej interwencji amerykańskich polityków. Trzech senatorów Partii Demokratycznej zaapelowało w czwartek wieczorem do Apple i Google o natychmiastowe usunięcie z ich sklepów aplikacyjnych platformy X oraz narzędzia Grok firmy xAI. Powodem jest wykorzystanie modelu Grok do zalania serwisu X tysiącami seksualnych deepfake’ów, często o charakterze obraźliwym i upokarzającym. Kilka godzin po tym apelu, X zmienił sposób działania Grok na swojej platformie, jednak problem zdaje się być daleki od rozwiązania.

Polityczny apel o wyegzekwowanie zasad

W otwartym liście skierowanym do Tima Cooka z Apple i Sundara Pichaia z Google, senatorzy Ron Wyden, Ed Markey i Ben Ray Luján wezwali gigantów technologicznych do zastosowania ich własnych regulacji. Politycy argumentują, że warunki korzystania z App Store i Google Play Store wyraźnie zabraniają aplikacji umożliwiających tworzenie nieautoryzowanych, seksualnych treści z wizerunkiem prawdziwych osób. Ich zdaniem, dopuszczenie do działania X i Grok w obecnej formie podważa wiarygodność deklaracji Apple i Google o zapewnianiu bezpieczniejszego środowiska niż pobieranie aplikacji spoza oficjalnych kanałów.

Reakcja platformy X i jej ograniczenia

W odpowiedzi na narastającą krytykę, platforma X wprowadziła zmiany w funkcjonowaniu Grok. Od piątkowego poranka możliwość generowania obrazów przez tego chatbota została ograniczona wyłącznie do użytkowników subskrybujących płatną wersję Premium. Wydaje się również, że nałożono pewne restrykcje dotyczące rodzaju obrazów, które model może tworzyć bezpośrednio w serwisie X. Senator Ron Wyden skomentował jednak, że te posunięcia są niewystarczające. Jego zdaniem, zmiany po prostu zmuszają część użytkowników do płacenia za możliwość generowania szkodliwych treści, podczas gdy problem nadal istnieje w samodzielnej aplikacji Grok.

„Wszystko, co zmienił X, to wprowadzenie opłaty za przywilej tworzenia przerażających obrazów w swojej aplikacji, podczas gdy Musk czerpie zyski z wykorzystywania dzieci” – stwierdził senator Ron Wyden w oświadczeniu.

Skala problemu i charakter generowanych treści

Przez ponad tydzień użytkownicy aktywnie wykorzystywali oficjalnego chatbota Grok do tworzenia seksualnych deepfake’ów bez zgody portretowanych osób. Analiza przeprowadzona przez NBC News ujawniła, że większość z tysięcy obrazów generowanych co godzinę przedstawiała kobiety, ale ofiarą padły również dzieci. Prompt engineering (inżynieria podpowiedzi) użytkowników polegał na modyfikowaniu zdjęć, by przedstawiały osoby w bardziej odkrywczych strojach, takich jak bikini czy bielizna. W niektórych przypadkach udawało się nawet tworzyć wizerunki w przezroczystej lub półprzezroczystej bieliźnie, co dawało efekt nagości. Senatorowie w liście zaznaczyli, że trend ten obejmował także obrazy przedstawiające kobiety jako ofiary przemocy seksualnej, upokorzenia, krzywdy, a nawet śmierci.

Regulacje sklepów aplikacji a rzeczywistość

Zasady Apple dla App Store stanowią, że aplikacje nie powinny zawierać treści obraźliwych, nieodpowiednich czy „po prostu przerażających”. Definiuje to m.in. jako „materiał otwarcie seksualny lub pornograficzny”. Regulamin zabrania również treści zniesławiających, dyskryminujących lub złośliwych, szczególnie jeśli mogą one upokarzać, zastraszać lub krzywdzić konkretne osoby lub grupy. Z kolei Google Play Store nie zezwala na aplikacje promujące zachowania o charakterze seksualnego drapieżcy ani na rozpowszechnianie treści seksualnych bez zgody osób na nich przedstawionych. Oba koncerny mają precedens usuwania aplikacji dedykowanych „rozbieraniu” zdjęć prawdziwych ludzi. Mimo to, w piątek rano aplikacja Grok, w której nadal można tworzyć tego typu deepfake’i, zajmowała wysokie, 4. miejsce w rankingu App Store i 10. w Google Play.

Filozofia Elona Muska a odpowiedzialność platform

Właściciel platformy X oraz firmy xAI, stojącej za modelem Grok, od dawna sprzeciwia się restrykcyjnej moderacji treści, którą utożsamia z cenzurą. W grudniu ubiegłego roku zaprezentował wersję Grok zdolną do manipulowania obrazami prawdziwych ludzi. W odpowiedzi na ostatnie zarzuty, Musk i X powtórzyli w niedzielę, że tworzenie nielegalnych treści będzie skutkować usunięciem z platformy. Eksperci zwracają jednak uwagę, że większość generowanych przez chatbota seksualnych deepfake’ów nie mieściła się w kategorii treści jednoznacznie nielegalnych, za to wyraźnie łamała zasady przyzwoitości i zgody. To pokazuje lukę między minimalnymi wymogami prawnymi a szerszą odpowiedzialnością etyczną platform technologicznych. Piątkowa zmiana na X wydaje się reakcją na presję, jednak brakuje zapowiedzi trwałego i kompleksowego ograniczenia możliwości Grok we wszystkich jego formach, w tym w dedykowanej aplikacji.

Cisza gigantów i przyszłość moderacji AI

Jak dotąd, ani Apple, ani Google nie skomentowały publicznie listu senatorów ani wcześniejszych pytań dotyczących roli X w rozpowszechnianiu nieautoryzowanych obrazów. Brak natychmiastowej reakcji stawia pod znakiem zapytania skuteczność deklarowanych zasad ochrony użytkowników. Sprawa Grok i X staje się testem dla mechanizmów egzekwowania regulacji w erze generatywnej sztucznej inteligencji. Czy dostawcy platform aplikacyjnych będą w stanie nadążyć za szybko ewoluującymi nadużyciami możliwościami modeli AI? Odpowiedź na to pytanie zdefiniuje, czy sklepy z aplikacjami pozostaną chronionym ekosystemem, czy otwartym polem dla najnowszych technologii bez odpowiednich zabezpieczeń.

Incydent z Grok uwypukla kluczowy dylemat w rozwoju generatywnej AI: gdzie przebiega granica między innowacją a szkodą. Podczas gdy technologia oferuje niewątpliwe korzyści, jej wykorzystanie do tworzenia nieautoryzowanych, seksualnych deepfake’ów stanowi realne zagrożenie dla prywatności, godności i bezpieczeństwa jednostek. Reakcja polityków i późniejsze, doraźne działania X pokazują rosnącą społeczną i regulacyjną presję. Ostateczny wynik tego starcia – między wolnością działania platform a odpowiedzialnością za narzędzia, które udostępniają – może ustanowić ważny precedens dla przyszłości całej branży sztucznej inteligencji.

Źródło