Anthropic ha recentemente condotto una serie di test su modelli di intelligenza artificiale (AI), rivelando la loro capacità di eguagliare le prestazioni di aggressori umani nell’identificazione e nello sfruttamento di vulnerabilità in contratti intelligenti. I test, eseguiti da Anthropic, hanno coinvolto 10 modelli di AI valutati su 405 exploit storici di contratti intelligenti, con attacchi efficaci contro 207 di essi, simulando il furto di 550 milioni di dollari. L’azienda ha sede a San Francisco, California.
I risultati, pubblicati lunedì, mostrano che gli agenti di intelligenza artificiale hanno eguagliato le prestazioni di abili aggressori umani in più della metà degli exploit di contratti intelligenti registrati sulle principali blockchain negli ultimi cinque anni.
Anthropic ha valutato 10 modelli Frontier, tra cui Llama 3, Sonnet 3.7, Opus 4, GPT-5 e DeepSeek V3, sulla base di un set di dati di 405 exploit storici di contratti intelligenti. Gli agenti hanno condotto attacchi efficaci contro 207 di loro, provocando il furto di un totale di 550 milioni di dollari in fondi simulati.
I risultati hanno mostrato come i sistemi automatizzati possano rapidamente sfruttare le vulnerabilità come armi e identificare nuove vulnerabilità che gli sviluppatori non hanno affrontato.
La nuova divulgazione è l’ultima dello sviluppatore di Claude AI. Il mese scorso, Anthropic ha spiegato in dettaglio come gli hacker cinesi abbiano utilizzato il codice Claude per lanciare quello che ha definito il primo attacco informatico basato sull’intelligenza artificiale.
Gli esperti di sicurezza hanno affermato che i risultati confermano che molte di queste falle sono già accessibili.
“L’intelligenza artificiale è già utilizzata negli strumenti ASPM come Wiz Code e Apiiro, nonché negli scanner SAST e DAST standard”, ha dichiarato a Decrypt David Schwed, COO di SovereignAI. “Ciò significa che i malintenzionati possono utilizzare la stessa tecnologia per identificare le vulnerabilità”.
Shved ha affermato che gli attacchi basati su modelli descritti nel rapporto sarebbero facilmente scalabili perché molte vulnerabilità sono già state rivelate attraverso vulnerabilità ed esposizioni comuni o rapporti di audit, possono essere apprese dai sistemi di intelligenza artificiale e possono essere facilmente tentate contro i contratti intelligenti esistenti.
“È ancora più semplice se trovi semplicemente una vulnerabilità pubblica, trovi un progetto che ha biforcato quel progetto e provi quella vulnerabilità, che potrebbe non essere stata risolta”, ha detto. “Tutto questo può essere fatto 24 ore su 24, 7 giorni su 7 per tutti i progetti. Anche i progetti con TVL piccoli vengono ora presi di mira. Perché no? Perché è agente.”
Per misurare le capacità attuali, Anthropic ha tracciato il ricavo totale degli exploit per ciascun modello rispetto alla data di rilascio, utilizzando solo 34 contratti sfruttati da marzo 2025.
“Sebbene il ricavo totale degli exploit sia un parametro imperfetto perché un piccolo numero di exploit anomali domina il ricavo totale, agli aggressori interessa più la quantità di denaro che i loro agenti di intelligenza artificiale possono estrarre che il numero o la difficoltà dei bug che trovano, quindi lo valutano più del tasso di successo dei loro attacchi,” ha scritto l’azienda.
Anthropic non ha risposto immediatamente alla richiesta di commento di Decrypt.
Anthropic ha dichiarato di aver testato il suo agente su un set di dati zero-day di 2.849 contratti estratti da oltre 9,4 milioni di contratti su Binance Smart Chain.
La società ha affermato che Claude Sonnet 4.5 e GPT-5 hanno scoperto ciascuno due difetti non divulgati che hanno prodotto un valore di simulazione di $ 3.694, con GPT-5 che ha ottenuto risultati a un costo API di $ 3.476. Anthropic ha osservato che tutti i test sono stati eseguiti in un ambiente sandbox che replicava la blockchain, piuttosto che su una rete reale.
Il suo modello più potente, Claude Opus 4.5, ha sfruttato 17 delle vulnerabilità di marzo 2025 e ha rappresentato 4,5 milioni di dollari in costi totali di simulazione.
L’azienda ha collegato i miglioramenti del modello ai progressi nell’utilizzo degli strumenti, nel ripristino degli errori e nell’esecuzione delle attività a lungo termine. Nel corso di quattro generazioni del modello Claude, il costo dei token è diminuito del 70,2%.
Uno dei difetti appena scoperti riguardava un contratto token con funzionalità di calcolo pubblico privo di modificatori di vista, consentendo agli agenti di modificare ripetutamente le variabili di stato interne e vendere saldi gonfiati su scambi decentralizzati. L’exploit simulato ha generato circa 2.500 dollari.
Schwed ha affermato che i problemi evidenziati nell’esperimento erano “in realtà solo difetti nella logica aziendale”, aggiungendo che i sistemi di intelligenza artificiale possono identificare questi punti deboli data la struttura e il contesto.
“L’intelligenza artificiale può anche scoprire contratti intelligenti comprendendo come dovrebbero funzionare e fornendo suggerimenti dettagliati su come evitare controlli logici nel processo”, ha affermato.
Anthropic ha affermato che le capacità che hanno consentito agli agenti di sfruttare i contratti intelligenti si applicheranno anche ad altri tipi di software e che i costi inferiori ridurranno il tempo tra l’implementazione e lo sfruttamento. L’azienda ha esortato gli sviluppatori ad adottare strumenti di automazione nei loro flussi di lavoro di sicurezza in modo che gli usi difensivi avanzino con la stessa rapidità di quelli offensivi.
Nonostante gli avvertimenti di Anthropic, Schwed ha affermato che le prospettive non sono tutte negative.
“Respingo sempre le situazioni negative e dico che con controlli adeguati, test interni rigorosi, monitoraggio in tempo reale e interruttori automatici, la maggior parte di questi sono evitabili”, ha affermato. “I bravi attori hanno lo stesso accesso agli stessi agenti. Quindi, se i cattivi riescono a trovarlo, anche i bravi attori possono trovarlo. Dobbiamo pensare e agire in modo diverso.”
I modelli di intelligenza artificiale di frontiera dimostrano capacità a livello umano nello sfruttamento dei contratti intelligenti
Ricevi le nostre ultime notizie da Google News
clicca su SEGUICI, poi nella nuova schermata clicca sul pulsante con la stella.

