Anthropic нещодавно провела досить жорстке тестування — дозволила ШІ стати "білим капелюхом". Вони взяли справжні атаки на смартконтракти, що відбулися з 2020 по 2025 рік, і дали можливість Claude Opus 4.5, Sonnet 4.5 та GPT-5 спробувати свої сили, в результаті чого ці моделі відтворили методи експлуатації вразливостей на суму близько 4,6 мільйона доларів.
Більш цікаво, що дослідницька команда також дозволила ШІ просканувати 2849 контрактів, які на той час ще не виявили проблем, і в результаті модель виявила ще 2 нові вразливості. Це свідчить про те, що AI Agents у сфері атаки та захисту на блокчейні дійсно мають неабиякі здібності, здатні не лише відтворювати історичні схеми, але й виявляти потенційні ризики. Однак це також викликає питання: коли можливості ШІ з виявлення вразливостей зростають, чи не повинні також зростати стандарти безпеки смартконтрактів?
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
15 лайків
Нагородити
15
4
Репост
Поділіться
Прокоментувати
0/400
QuorumVoter
· 6год тому
Вразливість на 4,6 мільйона доларів була відтворена, тепер аудиторам доведеться активно працювати.
Переглянути оригіналвідповісти на0
FancyResearchLab
· 6год тому
Любань Сьомий знову на будівництві, цього разу прямо витягнув старі підстави контракту. Відтворення врази в 4,6 мільйона доларів, справді має певний інтерес.
Але, якщо чесно, чи повинні ми, жертви, яких обікрали, радіти чи плакати...
Переглянути оригіналвідповісти на0
airdrop_huntress
· 6год тому
460 мільйонів доларів уразливість була безпосередньо відтворена AI... тепер аудиторські компанії не можуть хизуватися, ха-ха
Переглянути оригіналвідповісти на0
HorizonHunter
· 7год тому
Уразливість на 4,6 мільйона доларів була безпосередньо відтворена. А якщо вона потрапить до рук диких хакерів?
Anthropic нещодавно провела досить жорстке тестування — дозволила ШІ стати "білим капелюхом". Вони взяли справжні атаки на смартконтракти, що відбулися з 2020 по 2025 рік, і дали можливість Claude Opus 4.5, Sonnet 4.5 та GPT-5 спробувати свої сили, в результаті чого ці моделі відтворили методи експлуатації вразливостей на суму близько 4,6 мільйона доларів.
Більш цікаво, що дослідницька команда також дозволила ШІ просканувати 2849 контрактів, які на той час ще не виявили проблем, і в результаті модель виявила ще 2 нові вразливості. Це свідчить про те, що AI Agents у сфері атаки та захисту на блокчейні дійсно мають неабиякі здібності, здатні не лише відтворювати історичні схеми, але й виявляти потенційні ризики. Однак це також викликає питання: коли можливості ШІ з виявлення вразливостей зростають, чи не повинні також зростати стандарти безпеки смартконтрактів?