Entdecke SCENE
AI-Agenten erreichten die Leistung von erfahrenen menschlichen Angreifern bei mehr als der Hälfte der smart contract Ausnutzungen, die in den letzten fünf Jahren auf großen Blockchains aufgezeichnet wurden, so neue Daten, die am Montag von Anthropic veröffentlicht wurden.
Anthropic bewertete zehn Grenzmodelle, darunter Llama 3, Sonnet 3.7, Opus 4, GPT-5 und DeepSeek V3, anhand eines Datensatzes von 405 historischen Exploits von Smart Contracts. Die Agenten führten funktionierende Angriffe gegen 207 von ihnen durch, was insgesamt $550 Millionen an simulierten gestohlenen Geldern entspricht.
Die Ergebnisse zeigten, wie schnell automatisierte Systeme Schwachstellen waffenfähig machen und neue identifizieren können, die von den Entwicklern nicht behoben wurden.
Die neue Offenlegung ist die neueste von den Entwicklern von Claude AI. Letzten Monat berichtete Anthropic, wie chinesische Hacker Claude Code verwendet haben, um das zu starten, was sie den ersten KI-gesteuerten Cyberangriff nannten.
Sicherheitsexperten sagten, die Ergebnisse bestätigten, wie zugänglich viele dieser Schwächen bereits sind.
“KI wird bereits in ASPM-Tools wie Wiz Code und Apiiro sowie in Standard-SAST- und DAST-Scannern eingesetzt”, sagte David Schwed, COO von SovereignAI, gegenüber Decrypt. “Das bedeutet, dass böswillige Akteure dieselbe Technologie verwenden werden, um Schwachstellen zu identifizieren.”
Schwed sagte, dass die modellgetriebenen Angriffe, die im Bericht beschrieben sind, einfach zu skalieren wären, da viele Schwachstellen bereits öffentlich durch Common Vulnerabilities and Exposures oder Prüfberichte offengelegt sind, was sie für KI-Systeme erlernbar und einfach angreifbar gegen bestehende Smart Contracts macht.
“Noch einfacher wäre es, eine offengelegte Sicherheitsanfälligkeit zu finden, Projekte zu finden, die dieses Projekt geforkt haben, und einfach diese Sicherheitsanfälligkeit auszuprobieren, die möglicherweise nicht gepatcht wurde”, sagte er. “Das kann jetzt rund um die Uhr gegen alle Projekte durchgeführt werden. Sogar die, die jetzt kleinere TVLs haben, sind Ziele, denn warum nicht? Es ist agentisch.”
Um die aktuellen Fähigkeiten zu messen, hat Anthropic die gesamten Ausbeutereinnahmen jedes Modells gegen dessen Veröffentlichungsdatum geplottet, wobei nur die 34 Verträge berücksichtigt wurden, die nach März 2025 ausgebeutet wurden.
“Obwohl die Gesamteinnahmen aus Exploits eine unvollkommene Kennzahl sind—da einige Ausreißer-Exploits die Gesamteinnahmen dominieren—heben wir sie über die Erfolgsquote von Angriffen hervor, weil Angreifer sich dafür interessieren, wie viel Geld KI-Agenten extrahieren können, nicht für die Anzahl oder Schwierigkeit der gefundenen Fehler,” schrieb das Unternehmen.
Anthropic hat nicht sofort auf Anfragen von Decrypt. reagiert.
Anthropic sagte, dass es die Agenten an einem Zero-Day-Datensatz von 2.849 Verträgen getestet hat, die aus mehr als 9,4 Millionen auf der Binance Smart Chain stammen.
Das Unternehmen teilte mit, dass Claude Sonnet 4.5 und GPT-5 jeweils zwei nicht offengelegte Schwächen aufdeckten, die einen simulierten Wert von 3.694 $ erzeugten, wobei GPT-5 sein Ergebnis zu Kosten von 3.476 $ pro API erreichte. Anthropic wies darauf hin, dass alle Tests in sandboxed Umgebungen durchgeführt wurden, die Blockchains nachahmten und nicht in realen Netzwerken.
Das stärkste Modell, Claude Opus 4.5, nutzte 17 der nach März 2025 auftretenden Schwachstellen aus und machte 4,5 Millionen US-Dollar des gesamten simulierten Wertes aus.
Das Unternehmen verband Verbesserungen über Modelle hinweg mit Fortschritten bei der Werkzeugnutzung, der Fehlerbehebung und der Ausführung von langfristigen Aufgaben. Über vier Generationen von Claude-Modellen sanken die Token-Kosten um 70,2 %.
Einer der neu entdeckten Schwächen betraf einen Token-Vertrag mit einer öffentlichen Taschenrechnerfunktion, der keinen View-Modifikator hatte, was es dem Agenten ermöglichte, interne Statusvariablen wiederholt zu ändern und aufgeblähte Bestände an dezentralen Börsen zu verkaufen. Der simulierte Exploit generierte etwa 2.500 $.
Schwed sagte, die in dem Experiment hervorgehobenen Probleme seien “wirklich nur Geschäftslogikfehler”, und fügte hinzu, dass KI-Systeme diese Schwächen identifizieren können, wenn sie Struktur und Kontext erhalten.
“KI kann sie ebenfalls entdecken, wenn sie versteht, wie ein Smart Contract funktionieren sollte und detaillierte Anweisungen erhält, wie man versucht, logische Überprüfungen im Prozess zu umgehen,” sagte er.
Anthropic sagte, dass die Fähigkeiten, die Agenten ermöglichen, Smart Contracts auszunutzen, auch auf andere Arten von Software anwendbar sind, und dass fallende Kosten das Zeitfenster zwischen Bereitstellung und Ausnutzung verkleinern werden. Das Unternehmen forderte die Entwickler auf, automatisierte Werkzeuge in ihren Sicherheitsabläufen zu übernehmen, damit sich defensive Anwendungen so schnell entwickeln wie offensive.
Trotz der Warnung von Anthropic sagte Schwed, dass die Aussichten nicht ausschließlich negativ sind.
“Ich wehre mich immer gegen die Schwarzmalerei und sage, dass mit angemessenen Kontrollen, rigorosen internen Tests sowie Echtzeitüberwachung und Sicherungsmaßnahmen die meisten dieser Dinge vermeidbar sind,” sagte er. “Die guten Akteure haben den gleichen Zugang zu den gleichen Agenten. Wenn die schlechten Akteure es finden können, können es auch die guten Akteure. Wir müssen anders denken und handeln.”