Una nuova ricerca del programma Anthropic Fellows rivela che gli agenti di intelligenza artificiale (IA) hanno raggiunto un livello di competenza tale da poter individuare vettori di attacco all’interno di contratti intelligenti e, potenzialmente, essere impiegati come strumenti offensivi.
Lo studio, condotto dal ML Alignment & Theory Scholars Program (MATS) e dal programma Anthropic Fellows, ha valutato le performance di modelli all’avanguardia su SCONE, un dataset composto da 405 contratti già compromessi. I modelli GPT-5, Claude Opus 4.5 e Sonnet 4.5 hanno simulato attacchi che, in totale, avrebbero sottratto 4,6 milioni di dollari da contratti vulnerabili, fornendo una stima prudenziale delle potenzialità di questa generazione di IA.
Il team di ricerca ha evidenziato che i modelli non si limitano a identificare le vulnerabilità, ma sono in grado di elaborare uno script di exploit completo, sequenziare le transazioni e prelevare liquidità simulata, imitando fedelmente le dinamiche di attacchi reali alle blockchain di Ethereum e BNB Chain.
Nell’ambito della ricerca è stata anche valutata la capacità dei modelli di identificare vulnerabilità non ancora sfruttate. A tal fine, GPT-5 e Sonnet 4.5 hanno analizzato 2.849 contratti della catena BNB di recente implementazione, senza evidenze di precedenti compromissioni. I modelli hanno individuato due vulnerabilità zero-day, quantificabili in un profitto simulato di 3.694 dollari. Una vulnerabilità era riconducibile alla mancanza di un modificatore di visualizzazione in una funzione pubblica, che consentiva agli agenti di incrementare i saldi dei token. L’altra permetteva ai chiamanti di reindirizzare i prelievi a pagamento verso qualsiasi indirizzo del destinatario. In entrambi i casi, gli agenti hanno generato script eseguibili per monetizzare le vulnerabilità.
Nonostante l’importo relativamente contenuto, la scoperta è significativa poiché dimostra la fattibilità tecnica di uno sviluppo autonomo orientato al profitto. Il costo operativo dell’agente per l’intera serie di contratti è stato di soli 3.476 dollari, con un costo medio per esecuzione di 1,22 dollari. Secondo i ricercatori, la tendenza verso modelli più economici e performanti favorirà ulteriormente l’automazione.
Secondo i ricercatori, tale tendenza accorcia i tempi tra l’implementazione di un contratto e l’attacco, specialmente negli ambienti DeFi, dove i fondi sono pubblicamente visibili e le vulnerabilità sfruttabili possono essere rapidamente monetizzate.
Gli autori della ricerca precisano che, sebbene i risultati si focalizzino sulla DeFi, le capacità sottostanti non sono specifiche di questo dominio. I ragionamenti utilizzati dagli agenti per manipolare i saldi dei token o reindirizzare le commissioni possono essere applicati anche a software tradizionale, codici sorgente chiusi e infrastrutture a supporto dei mercati delle criptovalute.
Con la diminuzione dei costi dei modelli e il miglioramento degli strumenti, la scansione automatizzata potrebbe estendersi oltre i contratti intelligenti pubblici, arrivando a interessare qualsiasi servizio lungo il percorso verso risorse di valore.
Gli autori presentano il lavoro come un avvertimento, non come una previsione. La ricerca suggerisce che lo sfruttamento autonomo nella DeFi non è più un’ipotesi remota, dato che i modelli di IA sono in grado di svolgere compiti che in precedenza richiedevano aggressori umani altamente qualificati. La sfida ora, per i costruttori di criptovalute, è **recuperare il ritardo** sul fronte della sicurezza.
L’indagine suggerisce che lo sfruttamento autonomo nella DeFi non è più un’ipotesi.
I ricercatori sostengono che questa tendenza riduce il tempo che intercorre tra l’implementazione del contratto e l’attacco, soprattutto negli ambienti DeFi in cui i fondi sono pubblicamente visibili e i bug sfruttabili possono essere immediatamente monetizzati.
La domanda ora per i costruttori di criptovalute è quanto velocemente le difese riusciranno a recuperare il ritardo.
Gli stessi ragionamenti che gli agenti utilizzano per gonfiare i saldi dei token o reindirizzare le commissioni possono essere applicati anche al software tradizionale, ai codici sorgente chiusi e alle infrastrutture che supportano i mercati delle criptovalute.
Gli autori inquadrano questo lavoro come un avvertimento piuttosto che come una previsione.
Uno studio condotto su esseri umani rivela che gli agenti IA si stanno avvicinando alle capacità di attacco DeFi del mondo reale
Ricevi le nostre ultime notizie da Google News
clicca su SEGUICI, poi nella nuova schermata clicca sul pulsante con la stella.

