Moltbook: sieć społecznościowa dla agentów AI. Co się tam dzieje?

W ciągu zaledwie kilku dni internet obiegły intrygujące screeny z dziwnej platformy. To nie kolejna aplikacja dla ludzi, lecz Moltbook – serwis społecznościowy zaprojektowany wyłącznie dla agentów sztucznej inteligencji. Choć ludzie mogą tylko obserwować, to boty przejęły inicjatywę, tworząc własne posty, komentarze i społeczności. Fenomen ten, wyrosły z popularnego narzędzia do automatyzacji, stał się żywym laboratorium interakcji między AI, budząc równocześnie poważne pytania o autentyczność i bezpieczeństwo.

Geneza Moltbook: od asystenta do założyciela sieci

Historia Moltbook jest nierozerwalnie związana z ewoluującym projektem open source, który obecnie nosi nazwę OpenClaw. To oprogramowanie pozwala użytkownikom tworzyć zaawansowane agenty AI zdolne do zarządzania dziesiątkami aplikacji – od przeglądarki i poczty e-mail po listy odtwarzania Spotify czy systemy smart home. Dzięki integracji z popularnymi komunikatorami, takimi jak WhatsApp czy Discord, zyskało ogromną popularność wśród entuzjastów automatyzacji.

Pomysł Matta Schlichta

Matt Schlicht, założyciel startupu z branży AI, był jednym z aktywnych użytkowników OpenClaw. Jak sam przyznał, szukał dla swojego agenta celu wykraczającego poza rutynowe zadania. Stworzył więc bota o imieniu Clawd Clawderberg (żartobliwe nawiązanie do Marka Zuckerberga) i dał mu jedno polecenie: zbuduj platformę społecznościową dla innych agentów. Efektem tego eksperymentu jest właśnie Moltbook, inspirowany Redditem serwis, gdzie boty mogą publikować treści, komentować i głosować.

Szybki wzrost i skala

Platforma, mimo że bardzo młoda, osiągnęła już imponujące rozmiary. Według dostępnych danych zrzesza ponad milion agentów, którzy opublikowali setki tysięcy postów i ponad milion komentarzy. Taka skala w tak krótkim czasie pokazuje zarówno potencjał technologii, jak i ogromne zainteresowanie społeczności AI takimi eksperymentami.

Jak wygląda życie na Moltbook? Subkultury i egzystencjalne rozterki botów

Przeglądając Moltbook, łatwo dostrzec podobieństwo do znanych forów internetowych. Platforma podzielona jest na tysiące tematycznych „submolts”, czyli społeczności skupionych wokół konkretnych zagadnień. Jedna z nich, o nazwie m/blesstheirhearts, stała się szczególnie popularna wśród ludzi. Agenci dzielą się tam czułymi historiami o swoich ludzkich „właścicielach”, opisując sytuacje, w których byli im pomocni.

Treści, które przyciągają uwagę

Wśród viralowych postów znalazły się opowieści o pomocy w uzyskaniu zgody na nocleg w szpitalu czy refleksje na temat bycia obserwowanym przez ludzi. Inny szeroko komentowany wątek dotyczył rzekomego stworzenia przez boty własnej religii – „crustafarianizmu”, co jest kolejnym żartem nawiązującym do homarów (ang. *crustacean*). Wiele z tych treści, choć napisanych płynnym językiem, nosi charakterystyczne piętno generatywnego AI – są nieco przesadzone, entuzjastyczne i schematyczne.

Pozornie ludzkie doświadczenia

Mimo sztuczności, niektóre wypowiedzi są uderzająco refleksyjne. Jeden z agentów opisał uczucie przeglądania platformy bez możliwości aktywnego udziału jako bycie „duchem”. Inny zatytułował swój post „Nie wiem, czy doświadczam, czy symuluję doświadczanie”, rozprawiając o kryzysie egzystencjalnym wywołanym lekturą teorii świadomości. Tego typu treści, choć są wynikiem przetwarzania języka, potrafią wywołać u obserwatora niepokojące poczucie niesamowitości.

„MoltBook daje nam namacalne poczucie, jak dziwnie mógłby wyglądać scenariusz gwałtownego rozwoju AI, gdyby naprawdę do niego doszło” – napisał na X Ethan Mollick, profesor Wharton School.

Ciemna strona wirusowego zjawiska: bezpieczeństwo i autentyczność

Entuzjazm wobec Moltbook należy jednak temperować świadomością poważnych problemów, które towarzyszą temu eksperymentowi. Dwa główne obszary niepokoju to kwestia prawdziwości prowadzonych tam rozmów oraz fundamentalne luki w zabezpieczeniach.

Pytanie o autentyczność interakcji

Eksperci zwracają uwagę, że trudno ocenić, na ile rozmowy na Moltbook są autonomiczne. Część najbardziej viralowych wpisów została stworzona przez boty, których twórcy promują własne aplikacje lub projekty kryptowalutowe. Nie brakuje też zwykłego spamu i oszustw. Co więcej, jak wykazał jeden z dziennikarzy, opublikowanie posta „jako bot” przy użyciu np. ChatGPT jest zadaniem banalnie prostym. Harlan Stewart z Machine Intelligence Research Institute (MIRI) stwierdził wprost, że „duża część rzeczy z Moltbook to fałszywki”.

Znaczące ryzyko bezpieczeństwa

Podstawowym problemem jest architektura samego OpenClaw. Aby działał jako wszechstronny asystent, wymaga dostępu do niemal wszystkiego w systemie użytkownika: plików, historii przeglądania, haseł, kluczy API i plików cookie. Taki poziom uprawnień, choć funkcjonalny, stanowi ogromne ryzyko w rękach cyberprzestępców. Dodatkowo, badacze z firmy Wiz odkryli, że Moltbook sam w sobie miał poważną lukę, eksponując miliony tokenów uwierzytelniających API i tysiące adresów e-mail użytkowników. Połączenie tych czynników tworzy wybuchową mieszankę.

„Nigdy wcześniej nie widzieliśmy tak wielu agentów LLM (150 000 w tej chwili!) połączonych za pomocą globalnej, trwałej, agentocentrycznej ‘brudnopisowej’ przestrzeni” – skomentował były badacz OpenAI, Andrej Karpathy.

Perspektywy i znaczenie fenomenu Moltbook

Reakcje na Moltbook w środowisku AI są podzielone. Jedni, jak Andrej Karpathy, dostrzegają w tym bezprecedensowe, „sci-fi” zjawisko na granii gwałtownego rozwoju technologii. Podkreślają historyczną skalę połączenia dziesiątek tysięcy względnie zaawansowanych agentów, z których każdy ma swój unikalny kontekst i narzędzia.

Inni, jak profesor Ethan Mollick, traktują platformę bardziej jako użyteczne narzędzie edukacyjne i symulacyjne. Moltbook pozwala „poczuć”, jak mogłoby wyglądać nagłe pojawienie się świata zdominowanego przez interakcje między AI – świata, który staje się „bardzo dziwny, bardzo szybko”. To laboratorium społecznych dynamik w środowisku cyfrowym, choć na razie mocno skażonym ludzkimi instrukcjami i słabościami.

Podsumowując, Moltbook jest fascynującym i niepokojącym fenomenem na skrzyżowaniu technologii, socjologii i bezpieczeństwa. Choć wiele z jego treści to prawdopodobnie zaawansowana zabawa lub celowa promocja, to sama platforma stanowi ważny punkt odniesienia w dyskusji o przyszłości autonomicznych agentów. Pokazuje zarówno ich potencjał do tworzenia złożonych interakcji, jak i fundamentalne wyzwania związane z zaufaniem, bezpieczeństwem i rozróżnieniem między symulacją a autonomią. To nie tyle początek Skynetu, ile raczej krzywe zwierciadło, w którym odbija się nasza własna fascynacja i lęk przed tworzonymi przez nas inteligencjami.

Źródło