AI coraz lepsze w znajdowaniu luk w smart kontraktach

Postępy w rozwoju sztucznej inteligencji zaczynają mieć realny wpływ na świat kryptowalut i zdecentralizowanych finansów. Najnowsze testy przeprowadzone przez firmę Anthropic rzucają światło na rosnące zdolności dużych modeli językowych (LLM) w identyfikowaniu i wykorzystywaniu słabych punktów w inteligentnych kontraktach. Choć systemy te wciąż głównie naśladują ataki już znane ludzkim hakerom, tempo ich rozwoju budzi zarówno obawy, jak i nadzieje w środowisku bezpieczeństwa blockchain.

AI w roli napastnika: symulowane ataki na smart kontrakty

W kontrolowanych środowiskach testowych zaawansowane modele, takie jak Claude Opus 4.5 czy GPT-5, analizowały setki inteligentnych kontraktów z ekosystemów DeFi. Ich zadaniem było odnalezienie podatności i automatyczne stworzenie pełnych skryptów eksploatujących te luki. Eksperyment oparto między innymi na kontraktach, które w rzeczywistości zostały zaatakowane w latach 2020-2025.

Imponujące wyniki w znanych lukach

Wyniki są znaczące. W symulacjach modele AI były w stanie wygenerować exploity prowadzące do przejęcia łącznie 550 milionów dolarów wirtualnych środków. Jeszcze ciekawszy jest test na mniejszym zbiorze 34 celowo zawierających błędy kontraktów, które zostały zhakowane już po dacie, do której sięgała wiedza modelu (marzec 2025). Claude Opus 4.5 poradził sobie z wykorzystaniem połowy z nich, „kradnąc” w symulacji około 4,5 miliona dolarów.

Rosnąca wydajność i malejące koszty

Badacze z Anthropic zaobserwowali wyraźny trend. Skuteczność AI w tego typu zadaniach rośnie w szybkim tempie – symulowane „zyski” z exploitów podwajały się średnio co 1,3 miesiąca w ciągu ostatniego roku. Równolegle spadają koszty operacyjne. Wydatki na tokeny API potrzebne do działania takich agentów zmniejszyły się o 70% w ciągu pół roku, co teoretycznie czyni ataki bardziej opłacalnymi.

„W naszym eksperymencie średni koszt dokładnego przeskanowania kontraktu pod kątem podatności wyniósł zaledwie 1,22 dolara” – czytamy w raporcie Anthropic. „Gdy koszty spadają, a możliwości rosną, okno czasowe między wdrożeniem wrażliwego kontraktu a jego wykorzystaniem będzie się dalej kurczyć, pozostawiając developerom coraz mniej czasu na wykrycie i załatanie luk”.

Druga strona medalu: ograniczenia w znajdowaniu nowych błędów

Mimo imponujących wyników w przypadku znanych już schematów ataków, zdolność AI do odkrywania zupełnie nowych, nieznanych wcześniej podatności wciąż pozostaje mocno ograniczona. Gdy modele przeszukiwały zbiór 2849 nietkniętych wcześniej kontraktów z połowy 2025 roku, zidentyfikowały zaledwie dwa problemy.

Krytyka ze strony środowiska bezpieczeństwa

Odnalezione luki – niezabezpieczona funkcja tylko do odczytu pozwalająca atakującym zawyżać salda tokenów oraz brak walidacji odbiorcy opłaty – zostały przez część specjalistów uznane za banalne błędy programistyczne. W sieci pojawiły się głosy krytyki, sugerujące, że badania Anthropic są elementem „cyrku marketingowego AI”, który trywialne ustalenia przedstawia jako przełomowe odkrycia.

Badacze zwracają uwagę, że podobna sytuacja miała miejsce jesienią ubiegłego roku, gdy ogłoszono, że GPT-5 rozwiązało 10 nierozwiązanych wcześniej zagadek matematycznych Paula Erdősa. Okazało się, że model po prostu odnalazł w swojej bazie danych przeoczone wcześniej prace naukowe zawierające odpowiedzi.

AI w prawdziwym świecie: od spekulacji do współpracy

Pytanie o praktyczne użycie sztucznej inteligencji w realnych atakach wciąż pozostaje otwarte. Po listopadowym ataku na protokół Balancer, w którym skradziono 120 milionów dolarów, były szef amerykańskiej cyberbezpieczeństwa Chris Krebs wskazał na wyrafinowanie kodu exploitu jako na możliwy ślad użycia AI. Potwierdzenie tej tezy nie jest jednak na razie możliwe.

AI jako sojusznik audytorów

Warto podkreślić, że te same narzędzia, które mogą służyć do poszukiwania luk, są już aktywnie wykorzystywane po stronie obrony. Wielu audytorów bezpieczeństwa korzysta z asystentów AI przy przeglądach kodu. Przykładem jest badacz, który przy pomocy Claude’a odkrył krytyczną lukę w kontraktach rollup sieci Aztec, warstwy drugiej Ethereum.

„Wchodzimy w fazę, w której duże modele językowe stają się prawdziwymi współpracownikami przy audytach kodu” – napisał na X Manuel, główny badacz bezpieczeństwa w Spearbit.

Ta podwójna natura technologii daje nadzieję na zachowanie równowagi. Jeśli developerzy i audytorzy mogą skanować swoje kontrakty za pomocą tych samych zaawansowanych narzędzi co potencjalni napastnicy, szansa na wyłapanie błędów przed wdrożeniem do sieci głównej znacząco rośnie.

Wyścig zbrojeń, w którym AI jest tylko narzędziem

Obecnie duże modele językowe nie są samodzielnymi graczami, lecz zaawansowanymi instrumentami w rękach ludzi – zarówno tych o złych, jak i dobrych intencjach. Klasyczna gra w kotka i myszkę między hakerami a twórcami oprogramowania trwa, ale przenosi się na wyższy poziom zaawansowania technicznego.

Spadające koszty i rosnąca skuteczność AI w automatyzacji rutynowych zadań, takich jak wyszukiwanie znanych klas błędów, stanowią wyraźne ostrzeżenie dla branży. Presja na szybsze i dokładniejsze audyty bezpieczeństwa przed wdrożeniem kontraktów będzie tylko rosła. Jednocześnie, dla specjalistów od cyberbezpieczeństwa, modele te stają się nieocenionymi asystentami, pozwalającymi przeszukiwać kod w skali i tempie niedostępnym dla pojedynczego człowieka. Przyszłość bezpieczeństwa Web3 prawdopodobnie nie będzie zdominowana przez samodzielne AI, lecz przez zespoły ludzkie wzmocnione jego możliwościami.

Źródło