Rząd Wielkiej Brytanii ogłosił zdecydowane kroki w walce z nieetycznym wykorzystaniem technologii generatywnej sztucznej inteligencji. W ramach nowej strategii, której celem jest zmniejszenie o połowę przemocy wobec kobiet i dziewcząt, wprowadzony zostanie zakaz dotyczący tak zwanych aplikacji „nudification”. Nowe przepisy mają uniemożliwić tworzenie oraz udostępnianie narzędzi AI, które pozwalają na edycję zdjęć w celu wizualnego usunięcia z nich ubrań.
Nowe prawo przeciwko cyfrowemu wykorzystaniu
Zapowiedziane w czwartek regulacje stanowią rozszerzenie już istniejących przepisów, które penalizują tworzenie eksplicytnych deepfake’ów oraz nadużycia związane z intymnymi wizerunkami bez zgody osoby na nich przedstawionej. Sekretarz ds. Technologii, Liz Kendall, podkreśliła, że bezpieczeństwo kobiet i dziewcząt musi być zapewnione zarówno w świecie rzeczywistym, jak i w przestrzeni cyfrowej. Rząd nie zamierza przyglądać się biernie, jak technologia jest wykorzystywana jako broń do znęcania się, upokarzania i wykorzystywania.
Pełna odpowiedzialność dla twórców i dystrybutorów
Nowe przestępstwo prawne ma na celu pociągnięcie do odpowiedzialności nie tylko bezpośrednich użytkowników, ale przede wszystkim podmiotów, które na tego typu aplikacjach zarabiają lub umożliwiają ich działanie. Jak zaznaczyła Liz Kendall, takie osoby i firmy „odczują całą surowość prawa”. Choć generowanie głębokich podróbek o charakterze seksualnym bez zgody jest już nielegalne na mocy Ustawy o Bezpieczeństwie Online, nowy zapis bezpośrednio atakuje źródło problemu – samo oprogramowanie.
Kobiety i dziewczęta zasługują na bezpieczeństwo online tak samo, jak offline. Nie będziemy stać z boku, podczas gdy technologia jest używana jako broń do ich wykorzystywania, upokarzania i znęcania się poprzez tworzenie niekonsensualnych, seksualnych deepfake’ów.
Realne zagrożenie i głosy ekspertów
Aplikacje do „rozbierania” zdjęć wykorzystują generatywną sztuczną inteligencję, aby w realistyczny sposób sprawić wrażenie, jakoby osoba na obrazie lub filmie została pozbawiona odzieży. Specjaliści od dawna alarmują o rosnącej popularności takich narzędzi i potencjalnie druzgocących konsekwencjach dla ofiar, na których tworzone są fałszywe nagie wizerunki. Szczególnie niepokojące jest wykorzystywanie tej technologii do produkcji materiałów przedstawiających seksualne wykorzystywanie dzieci (CSAM).
Apel o całkowity zakaz
W kwietniu Rzecznik Praw Dziecka dla Anglii, Dame Rachel de Souza, wzywała do całkowitego zakazu aplikacji nudification. W swoim raporcie argumentowała, że skoro samo tworzenie takiego obrazu jest słusznie nielegalne, to technologia, która to umożliwia, również powinna być zakazana. Jej stanowisko znajduje odzwierciedlenie w najnowszych działaniach rządu. Organizacje charytatywne zajmujące się ochroną dzieci, takie jak Internet Watch Foundation (IWF), odnotowują, że 19% osób zgłaszających materiały potwierdza, iż ich wizerunki zostały w jakimś stopniu zmanipulowane.
Technologia bez racji bytu
Kerry Smith, dyrektor naczelna IWF, przywitała nowe środki z zadowoleniem. Jej zdaniem, cieszy widok konkretnych kroków w kierunku zakazania aplikacji, które „jako produkt nie mają żadnego powodu, aby istnieć”. Podkreśliła, że tego typu narzędzia narażają prawdziwe dzieci na jeszcze większe niebezpieczeństwo, a wytworzone za ich pomocą materiały trafiają do najciemniejszych zakątków internetu.
Współpraca z branżą tech i przyszłe wyzwania
Rząd zapowiedział, że połączy siły z firmami technologicznymi, aby opracować skuteczne metody zwalczania nadużyć związanych z intymnymi obrazami. Współpraca ta ma obejmować dalszą pracę z brytyjską firmą SafeToNet, która stworzyła oprogramowanie AI mające identyfikować i blokować treści o charakterze seksualnym, a także uniemożliwiać działanie kamer w przypadku wykrycia próby rejestracji takich materiałów. Rozwiązania te są rozwinięciem istniejących już filtrów stosowanych przez platformy takie jak Meta.
Potrzeba szerszych zabezpieczeń
Mimo pozytywnego odbioru nowych zapisów prawnych, pojawiają się głosy o potrzebie dalszych działań. Organizacja NSPCC, choć z zadowoleniem przyjęła zakaz, wyraziła rozczarowanie brakiem podobnej „ambicji” w wprowadzaniu obowiązkowych zabezpieczeń na poziomie urządzeń. Organizacje pozarządowe wciąż wzywają rząd do nałożenia na firmy tech obowiązku wdrażania łatwiejszych metod identyfikacji i zapobiegania rozpowszechnianiu CSAM, także w prywatnych wiadomościach.
Rząd deklaruje również, że podejmie działania, aby uczynić „niemożliwym” dla dzieci robienie, przesyłanie lub oglądanie nagich zdjęć na swoich telefonach. Zapowiedziano także prace nad całkowitym zakazaniem narzędzi sztucznej inteligencji zaprojektowanych specjalnie do tworzenia lub dystrybucji materiałów z seksualnym wykorzystywaniem dzieci.
Kierunek zmian w erze generatywnego AI
Decyzja Wielkiej Brytanii wyznacza ważny precedens w globalnej dyskusji o etycznych granicach rozwoju sztucznej inteligencji. Pokazuje, że regulacje mogą i powinny wyprzedzać negatywne zjawiska, atakując nie tylko skutki, ale także źródła nieetycznych technologii. Podczas gdy branża tech rozwija coraz potężniejsze narzędzia generatywne, odpowiedzialność prawna za ich zastosowanie przesuwa się w stronę twórców i dostawców. Brytyjskie rozwiązania mogą stać się wzorem dla innych krajów, które mierzą się z podobnymi wyzwaniami związanymi z cyfrową przemocą i ochroną najsłabszych w erze łatwo dostępnych, zaawansowanych deepfake’ów.




