USA walczą z oszustwami AI. Nowe prawo karze deepfake’ów

Amerykański Kongres przygotowuje się do stawienia czoła nowej fali przestępczości, napędzanej przez sztuczną inteligencję. Zaproponowana właśnie ustawa, nazwana AI Fraud Deterrence Act, ma za zadanie zaktualizować system prawny, który nie nadąża za dynamicznym rozwojem technologii generatywnych. Jej celem jest wprowadzenie surowszych kar dla przestępców wykorzystujących AI oraz wyraźne zakazanie tworzenia deepfake’ów przedstawiających federalnych urzędników.

Zaostrzenie kar dla przestępców wykorzystujących AI

Inicjatorami projektu ustawy są przedstawiciele obu partii – Ted Lieu z Partii Demokratycznej oraz Neal Dunn z Partii Republikańskiej. Wspólnie podkreślają, że prawo musi dotrzymać kroku innowacjom. Dunn w oficjalnym oświadczeniu zaznaczył, że akt prawny ma na celu wzmocnienie kar za przestępstwa związane z oszustwami popełnianymi z pomocą sztucznej inteligencji. Ma to chronić tożsamości obywateli i zapobiegać nadużyciom tej przełomowej technologii.

Podwojone kary za oszustwa finansowe

Projekt przewiduje konkretne i dotkliwe zmiany w systemie karnym. W przypadkach, gdy sztuczna inteligencja zostanie świadomie wykorzystana do oszukania instytucji finansowych, maksymalna kara grzywny ma ulec podwojeniu – z miliona do dwóch milionów dolarów. To wyraźny sygnał, że prawodawcy chcą poważnie traktować nowe, technologiczne metody przestępczości.

Oszustwa pocztowe i telekomunikacyjne z użyciem AI

Ustawa ma również bezpośrednio wpisać oszustwa z wykorzystaniem AI do definicji przestępstw pocztowych oraz telekomunikacyjnych. Te drugie, znane jako „wire fraud”, obejmują już oszustwa z użyciem radia czy telewizji. Nowelizacja sprawi, że użycie sztucznej inteligencji do takich celów będzie podlegało karze do miliona dolarów grzywny oraz nawet 20 lub 30 lat pozbawienia wolności, w zależności od rodzaju przestępstwa.

Deepfake’ urzędników federalnych jako przestępstwo

Jednym z kluczowych elementów projektu jest wyraźne zakazanie i skryminalizowanie tworzenia deepfake’ów, które przedstawiają federalnych urzędników. Bezpośrednią inspiracją dla tego zapisu były incydents z początku roku, w których próbowano z powodzeniem podszyć się przy użyciu AI między innymi pod Szefa Sztabu Białego Domu, Susie Wiles, oraz Sekretarza Stanu, Marco Rubio.

Wyłączenie dla satyry i wolności słowa

Prawodawcy zdają sobie jednak sprawę, że technologia sama w sobie nie jest zła i ma liczne prawomocne zastosowania. Dlatego projekt ustawy zawiera klauzulę wyłączającą spod jej działania treści satyryczne oraz inne formy wypowiedzi chronione przez Pierwszą Poprawkę do Konstytucji USA. Warunkiem jest jednak wyraźne oznaczenie, że dany materiał nie jest autentyczny.

Większość Amerykanów chce rozsądnych zabezpieczeń dotyczących AI. Nie uważają, że całkowite Dzikie Zachody są pomocne – powiedział Ted Lieu w rozmowie z NBC News.

Dlaczego AI zmienia skalę i charakter oszustw

Eksperci podkreślają, że chociaż oszustwa istnieją od tysiącleci, sztuczna inteligencja radykalnie je wzmacnia. Działa na trzech frontach: obniża próg wejścia, podnosi jakość fałszywek i zwiększa skalę zjawiska. Osoby, które wcześniej nie podjęłyby wysiłku związanego z popełnieniem oszustwa, teraz mogą je wygenerować, wpisując jedynie kilka fraz do odpowiedniego oprogramowania.

Problem skali i jakości

Maura R. Grossman, profesor informatyki na University of Waterloo i praktykująca prawniczka, wskazuje na fundamentalną zmianę. Jej zdaniem AI wprowadza skalę, zasięg i prędkość popełniania oszustw, które są zupełnie inne niż w przeszłości. Firmy zajmujące się managmentem wydatków, takie jak Expensify, AppZen i SAP Concur, odnotowały gwałtowny wzrost tego zjawiska. AppZen ujawnił, że we wrześniu aż 14% wszystkich wykrytych sfałszowanych dokumentów zostało wygenerowanych przez AI. Dla porównania, rok wcześniej odsetek ten wynosił zero.

Wyścig zbrojeń: wykrywanie vs. generowanie

Pojawia się też fundamentalny problem z szybkością rozwoju technologii. Hany Farid, profesor z UC Berkeley, porównuje tempo postępu w AI do „psich lat”, podkreślając, że instytucje prawne i systemy wykrywające nie są w stanie nadążyć. Jeszcze 11 miesięcy temu FBI radziło, by szukać niedoskonałości w obrazach, takich jak zniekształcone dłonie czy stopy. Dziś, jak twierdzi Farid, ta rada jest nieaktualna i wręcz szkodliwa. Współczesne modele generowania obrazów radzą sobie z tymi detalami bezbłędnie, co uniemożliwia proste, wizualne metody weryfikacji.

Triki z wieloma dłońmi już nie działają. Nie można szukać błędów w dłoniach czy stopach. Żadna z tych metod nie jest już skuteczna – stwierdził Hany Farid, podkreślając potrzebę systemowego oznaczania treści.

Proponowana ustawa to jeden z pierwszych, konkretnych kroków w kierunku opanowania prawnej i społecznej domeny, któą zrewolucjonizowała sztuczna inteligencja. Jej losy w Kongresie będą uważnie obserwowane nie tylko w Stanach Zjednoczonych, ale na całym świecie, jako precedens dla przyszłych regulacji. Pokazuje ona, że kluczowe jest znalezienie równowagi między karaniem nadużyć a ochroną wolności wypowiedzi i niehamowaniem innowacji.

Źródło