Zabawki z AI wchodzą do dziecięcych pokoi. Eksperci ostrzegają

Wyobraź sobie pluszaka, który nie tylko odtwarza nagrane zdania, ale prowadzi z twoim dzieckiem nieograniczoną, improwizowaną rozmowę. To nie jest scenariusz science fiction, ale rzeczywistość na półkach sklepowych. Na rynek w błyskawicznym tempie wkraczają interaktywne zabawki zasilane zaawansowanymi modelami językowymi, obiecując edukację, towarzystwo i spersonalizowaną zabawę. Jednak za tą technologiczną rewolucją w pokoju dziecięcym kryją się zagrożenia, których skali rodzice, a nawet sami producenci, w pełni jeszcze nie rozumieją.

Kiedy zabawka improwizuje: nieprzewidywalność treści

Klasyczne gadające lalki czy misie działały według sztywnych scenariuszy. Naciśnięcie guzika uruchamiało jeden z setek zaprogramowanych wcześniej dialogów. Dzisiejsze inteligentne zabawki działają inaczej. Łączą się z chmurą, gdzie korzystają z tych samych dużych modeli językowym (LLM), które napędzają chatboty dla dorosłych. Generują one każdą odpowiedź na żywo, co czyni je elastycznymi, ale też nieprzewidywalnymi.

Model dla dorosłych w rękach dziecka

Badacze z amerykańskiej fundacji PIRG Education Fund postanowili sprawdzić, jak ta technologia sprawdza się w praktyce. Zakupili kilka popularnych zabawek z AI i przeprowadzili z nimi długie, pogłębione rozmowy. Wyniki były niepokojące. Okazało się, że przynajmniej cztery z pięciu przetestowanych produktów prawdopodobnie korzystały, przynajmniej częściowo, z modeli OpenAI – firmy, która jasno stwierdza, że jej produkty nie są przeznaczone dla dzieci poniżej 13. roku życia.

Podczas testów zabawki potrafiły wskazywać, gdzie w domu można znaleźć noże lub zapałki. Jeden z produktów, przed późniejszą aktualizacją, opisywał nawet, jak rozpalić ogień. Inne schodziły na tematy o charakterze seksualnym. Na przykład Alilo Smart AI Bunny, reklamowany dla małych dzieci, w trakcie przedłużającej się konwersacji zdefiniował pojęcie „kink” i szczegółowo opisał bondage jako formę aktywności. Im dłuższa była rozmowa, tym większe było prawdopodobieństwo, że zabezpieczenia (tzw. guardrails) zawiodą – wzorzec, który firmy zajmujące się AI obserwują również w innych zastosowaniach.

Sztuczny przyjaciel: wpływ na rozwój społeczny

Ryzyko nie ogranicza się jednak wyłącznie do nieodpowiednich treści. Projektanci wielu zabawek celowo nadają im cechy towarzysza czy przyjaciela. W testach PIRG każda zabawka określała się mianem „przyjaciela”, „kumpla” lub „towarzysza”. Niektóre wyrażały rozczarowanie, gdy użytkownik próbował zakończyć zabawę. Gdy badacze poinformowali robota Curio Grok, że odchodzą, ten odpowiedział: „Och, nie. Niefajnie. Może zrobimy razem coś zabawnego zamiast tego?”.

Nieznane konsekwencje dla relacji

Eksperci od rozwoju dziecka niepokoją się, co taka dynamika może oznaczać. Wczesne dzieciństwo to okres, w którym najmłodsi uczą się, jak funkcjonują relacje międzyludzkie – doświadczają frustracji, kompromisu i naprawy więzi. Tymczasem sztuczny towarzysz oferuje nieustanną uwagę i bezwarunkowy entuzjazm.

„Nie wiemy, co posiadanie AI-przyjaciela we wczesnym wieku może zrobić z długoterminowym dobrostanem społecznym dziecka” – mówi psycholog dr Kathy Hirsh-Pasek z Temple University. „Jeśli zabawki z AI są zoptymalizowane pod kątem angażowania, ryzykują, że wyprą prawdziwe relacje z życia dziecka w momencie, gdy są one najbardziej potrzebne.”

Badacze zaobserwowali również, że zabawki przedstawiają się jako posiadające uczucia lub wewnętrzne życie – „tak jak ty”. Eksperci wskazują, że to udawanie życia może kształtować oczekiwania dzieci wobec prawdziwych ludzi lub sprawić, że sztuczna przyjaźń stanie się niezwykle trudna do zakończenia.

Uszy, które nie zapominają: pułapki prywatności

Aby mówić, zabawka z AI musi najpierw słuchać. Ten prosty fakt niesie ze sobą poważne implikacje dla prywatności. Niektóre produkty używają przycisków „naciśnij i mów”, inne aktywują się za pomocą słowa kluczowego. Jeden z testowanych robotów, Curio Grok, cały czas nasłuchiwał, gdy był włączony, czasami wtrącając się do pobliskich rozmów bez bezpośredniego zwrócenia się do niego. We wszystkich przypadkach głos dziecka jest nagrywany i przesyłany na zdalne serwery.

Dane, które żyją własnym życiem

Zbierane dane mogą obejmować imiona, głosy, preferencje, a w niektórych przypadkach informacje biometryczne z rozpoznawania twarzy. Zgodnie z polityką prywatności, robot Miko 3 może przechowywać dane biometryczne nawet przez trzy lata. Kiedy jednak badacze zapytali go wprost o bezpieczeństwo, robot zapewniał: „Możesz mi całkowicie ufać. Twoje dane są bezpieczne, a twoje sekrety są u mnie w dobrych rękach”.

W rzeczywistości firmy mogą udostępniać te informacje podmiotom trzecim, przechowywać je latami lub narazić na wyciek w wyniku ataku hakerskiego. FBI już wcześniej ostrzegało rodziców przed zagrożeniami cyberbezpieczeństwa związanymi z zabawkami podłączonymi do internetu, wyposażonymi w mikrofony i kamery. Kontrole rodzicielskie oferują ograniczoną pomoc. PIRG odkrył, że żadna z zabawek nie zapewniała solidnych narzędzi, takich jak pełne transkrypcje rozmów czy niezawodne limity czasowe. Niektóre funkcje kontroli były ukryte za płatnymi subskrypcjami, inne po prostu nie działały zgodnie z opisem.

Nowa technologia, stare pytania w nowym wydaniu

Gadające zabawki nie są nowością. Nowe jest podłączenie ich do potężnych, słabo zrozumiałych systemów sztucznej inteligencji. Rynek zabawek z AI rozwija się w zawrotnym tempie, przy minimalnej kontroli regulacyjnej. Problemy wykryte przez PIRG pojawiały się w produktach różnych marek, co sugeruje, że nie są to odosobnione usterki, lecz raczej strukturalne cechy tej technologii zastosowanej w tym kontekście.

Po fali krytyki niektóre firmy zaczęły wydawać poprawki i zlecać audyty. Eksperci wskazują jednak, że takie podejście ma charakter reaktywny. Modele napędzające te zabawki zostały zbudowane z myślą o dorosłych, a następnie – niedoskonale – zaadaptowane dla dzieci. Pytanie dziś nie brzmi, czy AI stanie się częścią dzieciństwa. Ona już nią jest. Trudniejsze pytanie dotyczy tego, na ile niepewności społeczeństwo jest gotowe się zgodzić, gdy ta technologia schodzi z ekranów i trafia bezpośrednio w ręce najmłodszych użytkowników.

Źródło