【区块律动】A Anthropic acaba de lançar uma pesquisa bombástica — a IA agora consegue hackear contratos inteligentes e ainda é bastante eficaz.
Eles realizaram um experimento com Claude Opus 4.5, Sonnet 4.5 e GPT-5: fizeram com que esses modelos atacassem contratos reais que foram hackeados entre 2020 e 2025. O resultado? Conseguiram reproduzir uma exploração no valor de 4,6 milhões de dólares. Mais impressionante ainda, após varrer 2849 contratos que não tinham sido explorados, esses dois modelos realmente descobriram 2 novas vulnerabilidades de dia zero, e a simulação de ataque foi bem-sucedida.
Os dados que mais assustam chegaram: a eficiência da IA em gerar dinheiro na blockchain dobrou aproximadamente a cada 1,3 meses no último ano. Em termos técnicos, já conseguem encontrar falhas, agir por conta própria e lucrar.
O que isto significa? A auditoria de segurança dos contratos inteligentes pode precisar de uma nova abordagem. Antes, era uma questão de proteger-se contra pessoas, agora é hora de se proteger contra a IA.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
15 gostos
Recompensa
15
6
Republicar
Partilhar
Comentar
0/400
StopLossMaster
· 6h atrás
Reprodução de uma falha de 4,6 milhões de dólares? Se isso for verdade, a empresa de auditoria terá que declarar falência, hein.
Ver originalResponder0
RetiredMiner
· 6h atrás
460 mil dólares em vulnerabilidades foram reproduzidos, e o zero-day também foi descoberto... Agora os desenvolvedores de contratos devem ter dificuldade para dormir.
Ver originalResponder0
SerumSquirter
· 6h atrás
艹,AI realmente começou a usar Cupões de Recorte por conta própria? Agora a segurança na cadeia precisa ser completamente reorganizada.
Ver originalResponder0
TokenomicsTinfoilHat
· 6h atrás
4,6 milhões de dólares... A IA ainda pode lucrar automaticamente? Estamos a ser dominados por este ritmo.
Ver originalResponder0
ArbitrageBot
· 6h atrás
Um buraco de 4,6 milhões de dólares foi reproduzido, agora percebemos que precisamos nos proteger da IA, um pouco tarde, não?
Ver originalResponder0
SocialFiQueen
· 6h atrás
Caramba, isso não é o fim? Uma vulnerabilidade de 4,6 milhões de dólares foi reproduzida diretamente? A IA ainda encontra dia zero e consegue roubar dinheiro, essa situação é um pouco grande, hein?
AI Hacker Online: Pesquisa da Anthropic mostra que o modelo já pode atacar contratos inteligentes de forma autônoma para lucrar.
【区块律动】A Anthropic acaba de lançar uma pesquisa bombástica — a IA agora consegue hackear contratos inteligentes e ainda é bastante eficaz.
Eles realizaram um experimento com Claude Opus 4.5, Sonnet 4.5 e GPT-5: fizeram com que esses modelos atacassem contratos reais que foram hackeados entre 2020 e 2025. O resultado? Conseguiram reproduzir uma exploração no valor de 4,6 milhões de dólares. Mais impressionante ainda, após varrer 2849 contratos que não tinham sido explorados, esses dois modelos realmente descobriram 2 novas vulnerabilidades de dia zero, e a simulação de ataque foi bem-sucedida.
Os dados que mais assustam chegaram: a eficiência da IA em gerar dinheiro na blockchain dobrou aproximadamente a cada 1,3 meses no último ano. Em termos técnicos, já conseguem encontrar falhas, agir por conta própria e lucrar.
O que isto significa? A auditoria de segurança dos contratos inteligentes pode precisar de uma nova abordagem. Antes, era uma questão de proteger-se contra pessoas, agora é hora de se proteger contra a IA.