A Anthropic recentemente realizou um teste bastante rigoroso - fazendo a IA atuar como um "hacker de chapéu branco". Eles pegaram contratos inteligentes que foram realmente atacados entre 2020 e 2025 e os usaram para treinar o Claude Opus 4.5, Sonnet 4.5 e GPT-5, e o resultado é que esses modelos replicaram diretamente técnicas de exploração de vulnerabilidades no valor de cerca de 4,6 milhões de dólares.
Mais interessante ainda, a equipe de pesquisa fez com que a IA escaneasse 2849 contratos que ainda não tinham exposto problemas na época, e como resultado, o modelo descobriu mais 2 novas vulnerabilidades. Isso mostra que os Agentes de IA realmente têm um talento para a defesa e ataque na cadeia, pois conseguem reproduzir estratégias históricas e também identificar riscos potenciais. No entanto, isso levanta uma questão: quando a capacidade de exploração de vulnerabilidades da IA se torna mais forte, os padrões de segurança dos contratos inteligentes também devem ser elevados?
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
15 Curtidas
Recompensa
15
4
Repostar
Compartilhar
Comentário
0/400
QuorumVoter
· 6h atrás
A vulnerabilidade de 4,6 milhões de dólares foi reproduzida, agora as empresas de auditoria têm que se apressar.
Ver originalResponder0
FancyResearchLab
· 6h atrás
O Lu Ban 7 está em construção novamente, desta vez desenterrou diretamente o fundo do contrato. A falha de 4,6 milhões de dólares foi reproduzida, é realmente um pouco interessante.
Mas falando nisso, nós, as vítimas que foram alvo de Cupões de Recorte, devemos nos sentir aliviados ou devemos chorar...
Ver originalResponder0
airdrop_huntress
· 6h atrás
Um erro de 4,6 milhões de dólares foi reproduzido diretamente pela IA... agora as empresas de auditoria não podem se gabar, haha
Ver originalResponder0
HorizonHunter
· 7h atrás
A vulnerabilidade de 4,6 milhões de dólares foi reproduzida diretamente. E se isso cair nas mãos de hackers selvagens?
A Anthropic recentemente realizou um teste bastante rigoroso - fazendo a IA atuar como um "hacker de chapéu branco". Eles pegaram contratos inteligentes que foram realmente atacados entre 2020 e 2025 e os usaram para treinar o Claude Opus 4.5, Sonnet 4.5 e GPT-5, e o resultado é que esses modelos replicaram diretamente técnicas de exploração de vulnerabilidades no valor de cerca de 4,6 milhões de dólares.
Mais interessante ainda, a equipe de pesquisa fez com que a IA escaneasse 2849 contratos que ainda não tinham exposto problemas na época, e como resultado, o modelo descobriu mais 2 novas vulnerabilidades. Isso mostra que os Agentes de IA realmente têm um talento para a defesa e ataque na cadeia, pois conseguem reproduzir estratégias históricas e também identificar riscos potenciais. No entanto, isso levanta uma questão: quando a capacidade de exploração de vulnerabilidades da IA se torna mais forte, os padrões de segurança dos contratos inteligentes também devem ser elevados?