Dynamiczny rozwój generatywnej sztucznej inteligencji postawił przed społeczeństwami nowe wyzwania. W odpowiedzi na nie australijski rząd opublikował zestaw rekomendacji skierowanych do twórców technologii i producentów treści. Kluczowym postulatem jest wprowadzenie przejrzystych mechanizmów identyfikacji materiałów powstałych przy znacznym udziale AI, co ma pomóc w odbudowie i utrzymaniu zaufania publicznego.
Dlaczego przejrzystość w erze AI jest kluczowa?
Obecnie brakuje prawnych wymogów, które nakazywałyby ujawnianie sztucznego pochodzenia treści. Ta luka prawna prowadzi do sytuacji, w której materiały wygenerowane przez komputery są łatwo mylone z autentycznymi ludzkimi wytworami. Zjawisko to, znane jako deepfake, stwarza poważne zagrożenia. Eksperci ds. bezpieczeństwa cyfrowego wskazują, że technologia bywa wykorzystywana do tworzenia przekonujących fałszywek, które mogą służyć szerzeniu dezinformacji, oszustw finansowych, a nawet cyberprzemocy, takiej jak nieautoryzowane wykorzystanie wizerunku.
Rekomendowane narzędzia: od etykiet po watermarking
Rządowe wytyczne sugerują stosowanie dwóch głównych metod zapewnienia przejrzystości. Pierwszą z nich jest proste oznaczanie treści czytelnymi etykietami informującymi, że zostały one wygenerowane przez AI. Drugą, bardziej zaawansowaną techniką, jest tzw. watermarking, czyli osadzanie w materiale cyfrowym ukrytych informacji o jego pochodzeniu. Ten drugi sposób jest uważany za trwalszy i trudniejszy do usunięcia lub zmanipulowania niż zwykła etykieta. Szczególny nacisk kładzie się na stosowanie tych narzędzi w przypadkach, gdzie treści AI mogą realnie zaszkodzić osobom lub grupom społecznym.
AI jest z nami na stałe. Dzięki transparentności w zakresie jej wykorzystania, możemy zapewnić, że społeczeństwo skorzysta z innowacji, nie tracąc przy tym zaufania – powiedział minister przemysłu Tim Ayres.
Odpowiedź rządu: między zachętą a planami regulacji
Opublikowane zalecenia mają charakter dobrowolny i stanowią zachętę dla branży. Minister Ayres podkreślił, że chodzi o budowę zaufania, ochronę integralności informacji i danie obywatelom pewności co do konsumowanych treści. Niektóre firmy technologiczne, jak Google, już wdrożyły podobne praktyki watermarkingu. Jednak równolegle trwają prace nad bardziej formalnymi rozwiązaniami. Rząd zapowiedział wkrótce publikację Narodowego Planu AI, który ma być efektem wieloletnich konsultacji. Plan ten prawdopodobnie wprowadzi obowiązkowe „bariery ochronne” mające zapobiegać najpoważniejszym negatywnym skutkom rozwoju sztucznej inteligencji.
Głosy krytyki i propozycje legislacyjne
Niektórzy politycy uważają jednak, że działania rządu są zbyt powolne. Niezależny senator David Pocock zarzucił władzom brak kompleksowej reakcji od czasu rozpoczęcia przeglądu polityki AI ponad dwa lata temu. W odpowiedzi senator złożył własny projekt ustawy, który ma zakazywać rozpowszechniania cyfrowo zmodyfikowanych lub wygenerowanych przez AI treści przedstawiających czyjąś twarz lub głos bez wyraźnej zgody tej osoby. To bezpośrednia próba walki z nadużyciami związanymi z deepfake’ami.
Balansowanie między ryzykiem a szansą gospodarczą
Debata w Australii odzwierciedla globalny dylemat: jak jednocześnie chronić obywateli przed zagrożeniami i nie stłamsić ogromnego potencjału gospodarczego AI. Komisja Produktywności ostrzegała, że zbyt sztywne, obowiązkowe regulacje mogą udusić szansę na wzrost gospodarczy szacowany na 116 miliardów dolarów. Komisja rekomendowała wstrzymanie się z szerokimi ustawami do czasu, aż zostaną precyzyjnie zidentyfikowane luki w istniejącym prawie. Mimo to, ostatnie działania rządu skupiają się głównie na aspektach bezpieczeństwa, odpowiadając na obawy społeczne. Zapowiedziano m.in. powołanie Instytutu Bezpieczeństwa AI, który ma monitorować zagrożenia i pomagać w budowie zaufania do technologii.
Perspektywa kompleksowej ustawy o AI
Były minister przemysłu Ed Husic, który zainicjował rządowe konsultacje w tej sprawie, poszedł krok dalej. Wezwał do stworzenia dedykowanej Ustawy o Sztucznej Inteligencji. Taki akt prawny mógłby stworzyć elastyczne ramy prawne, zdolne do adaptacji w miarę dalszego, nieprzewidywalnego rozwoju technologii, zamiast sztywnych, szybko dezaktualizujących się przepisów.
Obecne, dobrowolne wytyczne dotyczące znakowania treści to pierwszy krok w kierunku systemowej odpowiedzi na wyzwania generatywnej AI. Pokazują one, że kluczowym priorytetem władz staje się przejrzystość i walka z dezinformacją. Kolejne miesiące pokażą, czy branża technologiczna przyjmie te zalecenia, czy też presja społeczna i incydenty związane z deepfake’ami wymuszą szybsze wprowadzenie twardych, obowiązujących przepisów. Ostateczny kształt Narodowego Planu AI ujawni, jak Australia zamierza pogodzić ochronę obywateli z ambicjami zostania liderem innowacji.




