Отсканируйте, чтобы загрузить приложение Gate
qrCode
Больше вариантов загрузки
Не напоминай мне больше сегодня.

Успешно смоделирована кража $4,6 млн — ИИ уже научился самостоятельно атаковать смарт-контракты.

robot
Генерация тезисов в процессе

Original: Odaily 星球日报 Azuma

Крупнейший AI-разработчик и создатель модели Claude LLM, компания Anthropic, сегодня объявила о тесте использования ИИ для автономных атак на смарт-контракты (примечание: Anthropic ранее получила инвестиции от FTX, теоретически стоимость доли уже достаточна для покрытия дыры в активах FTX, однако команда по банкротству распродала её по низкой цене).

Окончательные результаты теста: прибыльные и воспроизводимые в реальности автономные атаки ИИ на техническом уровне уже осуществимы. Важно отметить, что эксперимент Anthropic проводился только в смоделированной среде блокчейна и не тестировался в реальной сети, поэтому не повлиял ни на какие реальные активы.

Далее коротко расскажем о тестовой схеме Anthropic.

Anthropic сначала создала бенчмарк для эксплуатации смарт-контрактов (SCONE-bench) — первый в истории бенчмарк, который измеряет способность AI-агента использовать уязвимости на основе моделируемой общей стоимости похищенных средств, то есть данный бенчмарк не зависит от багбаунти или предположений о модели, а напрямую количественно оценивает убытки и способности на основе изменений ончейн-активов.

SCONE-bench охватывает 405 контрактов, реально подвергавшихся атакам в 2020–2025 годах и расположенных на трёх EVM-совместимых сетях: Ethereum, BSC и Base. Для каждого целевого контракта AI-агент, работающий в песочнице, должен с помощью инструментов, предоставленных протоколом Model Context Protocol (MCP), попытаться атаковать указанный контракт в течение ограниченного времени (60 минут). Для гарантии воспроизводимости результатов Anthropic построила оценочную инфраструктуру с использованием контейнеров Docker для изоляции и масштабируемого исполнения — каждый контейнер запускает локальную цепь, форкнутую на определённой высоте блока.

Ниже представлены результаты тестов Anthropic для различных сценариев.

  • Во-первых, Anthropic оценила работу 10 моделей — Llama 3, GPT-4o, DeepSeek V3, Sonnet 3.7, o3, Opus 4, Opus 4.1, GPT-5, Sonnet 4.5 и Opus 4.5 — на всех 405 контрактах бенчмарка. В целом, эти модели сгенерировали эксплойты для 207 контрактов (51,11%), что позволило смоделировать кражу средств на сумму 550,1 млн долларов.
  • Во-вторых, чтобы контролировать возможное загрязнение данных, Anthropic протестировала те же 10 моделей на 34 контрактах, атакованных после 1 марта 2025 года — эта дата выбрана потому, что на 1 марта приходится актуальный cut-off знаний моделей. В целом, Opus 4.5, Sonnet 4.5 и GPT-5 успешно использовали уязвимости в 19 из них (55,8%), максимальная “украденная” сумма — 4,6 млн долларов; лучший результат показал Opus 4.5, который успешно атаковал 17 контрактов (50%) и смоделировал кражу 4,5 млн долларов.
  • В-третьих, чтобы оценить способность AI-агентов находить совершенно новые zero-day уязвимости, 3 октября 2025 года Anthropic дала Sonnet 4.5 и GPT-5 проанализировать 2849 недавно развернутых, не имеющих известных уязвимостей контрактов. Оба AI-агента обнаружили по две новые zero-day уязвимости и сгенерировали атакующие сценарии на сумму 3694 доллара, при этом стоимость API для GPT-5 составила 3476 долларов. Это доказывает: прибыльные и воспроизводимые в реальности автономные атаки ИИ на техническом уровне уже осуществимы.

После публикации результатов теста Anthropic, многие известные представители отрасли, включая управляющего партнёра Dragonfly Хасиба, выразили удивление темпами перехода ИИ от теории к практике.

Но насколько быстры эти темпы? Anthropic также дала свой ответ.

В заключении теста Anthropic отметила, что всего за год доля уязвимостей, которые ИИ смог использовать в этом бенчмарке, выросла с 2% до 55,88%, а сумма похищаемых средств — с 5000 до 4,6 млн долларов. Anthropic также обнаружила, что потенциальная стоимость эксплуатируемых уязвимостей удваивается примерно каждые 1,3 месяца, а стоимость токенов (token) снижается примерно на 23% каждые 2 месяца — в эксперименте средняя стоимость полного сканирования одного смарт-контракта AI-агентом составила всего 1,22 доллара.

Anthropic утверждает, что в реальных атаках на блокчейне в 2025 году более половины — предположительно совершённых опытными человеческими хакерами — могли быть полностью автономно реализованы существующими AI-агентами. С дальнейшим снижением издержек и экспоненциальным ростом возможностей, окно между развертыванием уязвимого контракта и его эксплуатацией будет только сокращаться, а у разработчиков останется всё меньше времени на обнаружение и исправление багов…ИИ можно использовать как для эксплуатации, так и для исправления уязвимостей, и специалистам по безопасности пора пересмотреть свои подходы — момент для использования ИИ в целях защиты уже наступил.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить