Chiny wprowadzą nowe regulacje dla chatbotów AI

Chińskie władze przygotowują się do wprowadzenia pionierskich regulacji dotyczących interaktywnych usług opartych na sztucznej inteligencji. Projektowane przepisy, skierowane do szerokiej publiczności, mają na celu ochronę użytkowników przed potencjalnie szkodliwym wpływem chatbotów na ich zdrowie psychiczne i emocjonalne. To pierwsza na świecie próba stworzenia ram prawnych dla systemów AI symulujących ludzką osobowość.

Od bezpieczeństwa treści do bezpieczeństwa emocjonalnego

Cyberspace Administration of China opublikowało projekt dokumentu, który stanowi rozwinięcie wcześniejszych regulacji generatywnej sztucznej inteligencji z 2023 roku. Jak zauważa Winston Ma, profesor z NYU School of Law, nowe propozycje oznaczają znaczącą ewolucję. Podczas gdy poprzednie zasady koncentrowały się głównie na kontroli treści, obecny projekt kładzie nacisk na ochronę stanu emocjonalnego i psychicznego ludzi wchodzących w interakcje z zaawansowanymi modelami językowymi.

Zakazane praktyki i obowiązki dostawców

Projektowane przepisy wprowadzają szereg konkretnych zakazów i obowiązków dla firm technologicznych. Przede wszystkim, systemy AI nie będą mogły generować wypowiedzi, które w jakikolwiek sposób zachęcają do podjęcia próby samobójczej lub działań okaleczających własne ciało. Również treści związane z hazardem, przemocą lub o charakterze obscenicznym mają być całkowicie blokowane. Kluczowym zapisem jest zakaz stosowania przez chatboty przemocy słownej oraz technik manipulacji emocjonalnej, które mogłyby negatywnie wpłynąć na zdrowie psychiczne użytkownika.

Interwencja człowieka w sytuacjach kryzysowych

Projekt przewiduje szczególne procedury na wypadek wyraźnej deklaracji użytkownika o chęci odebrania sobie życia. W takiej sytuacji algorytm ma zostać automatycznie wyłączony, a rozmowę musi przejąć żywy człowiek – operator lub konsultant. Jego obowiązkiem będzie natychmiastowy kontakt z opiekunem prawnym osoby w kryzysie lub z inną wyznaczoną do tego celu osobą. Ten zapis podkreśla wagę, jaką regulator przywiązuje do realnego, a nie tylko wirtualnego, bezpieczeństwa obywateli.

Specjalna ochrona dla nieletnich użytkowników

Nowe regulacje w szczególny sposób traktują kwestię dostępu młodzieży do usług oferujących emocjonalne towarzystwo oparte na AI. Zgodnie z projektem, osoby niepełnoletnie będą mogły z nich korzystać wyłącznie za wyraźną zgodą swojego opiekuna prawnego. Ponadto, dla tej grupy wiekowej mają zostać wprowadzone limity czasowe użytkowania, mające zapobiegać nadmiernemu przywiązaniu czy uzależnieniu od wirtualnego rozmówcy.

Weryfikacja wieku i mechanizmy odwoławcze

Projekt nakłada na platformy obowiązek weryfikacji wieku użytkowników, nawet jeśli ci nie podają tych informacji dobrowolnie. Systemy mają wykorzystywać dostępne dane i metody analityczne, aby określić, czy mają do czynienia z osobą małoletnią. W przypadkach budzących wątpliwości, domyślnie będą stosowane ustawienia ochronne przeznaczone dla młodzieży. Dokument przewiduje jednak również możliwość odwołania się od takiej automatycznej decyzji, co wprowadza element sprawiedliwości proceduralnej.

Wpływ na rynek i chińskie firmy technologiczne

Ogłoszenie projektu zbiegło się w czasie z ważnymi wydarzeniami na lokalnym rynku technologicznym. Dwie wiodące chińskie firmy specjalizujące się w chatbotach AI – Z.ai (znana także jako Zhipu) oraz Minimax – złożyły w tym miesiącu dokumenty związane z planowaną pierwszą ofertą publiczną (IPO) na giełdzie w Hongkongu. Proponowane regulacje mogą bezpośrednio wpłynąć na ich modele biznesowe i strategię rozwoju.

Przykłady popularnych aplikacji

Minimax jest twórcą międzynarodowej aplikacji Talkie AI, która umożliwia użytkownikom rozmowy z wirtualnymi postaciami. Jej chińska wersja, Xingye, wraz z oryginałem, generowała ponad jedną trzecią przychodów firmy w pierwszych trzech kwartałach roku, przy średniej liczbie ponad 20 milionów aktywnych użytkowników miesięcznie. Z kolei Z.ai wskazuje, że jej technologie są wykorzystywane przez około 80 milionów urządzeń, w tym smartfony, komputery osobiste i inteligentne samochody. Obie spółki nie skomentowały publicznie, jak nowe przepisy mogą wpłynąć na ich plany wejścia na giełdę.

Dodatkowe wymogi dla dużych platform

Projekt wprowadza zaostrzone obowiązki dla największych dostawców. Usługi, które zgromadzą ponad milion zarejestrowanych użytkowników lub odnotują ponad sto tysięcy aktywnych użytkowników miesięcznie, będą musiały przejść specjalne audyty bezpieczeństwa. Ponadto, po dwóch godzinach nieprzerwanej interakcji z chatbotem, system będzie musiał wyświetlić użytkownikowi przypomnienie o upływie czasu. Ma to na celu zachowanie zdrowego dystansu i świadomości w relacji człowiek-maszyna.

Pozytywne zachęty i kontekst społeczny

Warto zauważyć, że projekt regulacji nie ma wyłącznie charakteru restrykcyjnego. Dokument wyraźnie wspomina i zachęca do wykorzystania antropomorficznej sztucznej inteligencji w społecznie pożytecznych obszarach, takich jak upowszechnianie kultury czy zapewnianie towarzystwa osobom starszym. To wskazuje na zrównoważone podejście regulatora, który dostrzega zarówno potencjalne zagrożenia, jak i pozytywne aspekty rozwoju tej technologii.

Projekt podkreśla przejście od bezpieczeństwa treści do bezpieczeństwa emocjonalnego – mówi Winston Ma z NYU School of Law, komentując ewolucję chińskiego podejścia do regulacji AI.

Propozycje są obecnie w fazie konsultacji publicznych, które potrwają do 25 stycznia. Ich finalny kształt będzie więc wynikiem uwag zgłoszonych przez branżę technologiczną, ekspertów i obywateli. Nie ulega wątpliwości, że Chiny, jako jeden z liderów w rozwoju AI, wyznaczają tym samym ważny precedens, który może być obserwowany i analizowany przez regulatorów na całym świecie, poszukujących odpowiedniej równowagi między innowacją a ochroną społeczeństwa.

Źródło