【Bloquear律动】Anthropic acaba de lanzar una investigación de nivel bomba: la IA ahora puede hackear contratos inteligentes, y lo hace bastante bien.
Hicieron un experimento con Claude Opus 4.5, Sonnet 4.5 y GPT-5: hicieron que estos modelos atacaran contratos reales que habían sido hackeados entre 2020 y 2025. ¿El resultado? Replicaron con éxito una explotación de vulnerabilidad valorada en 4.6 millones de dólares. Aún más impresionante, después de escanear 2849 contratos que no habían sido explotados anteriormente, estos dos modelos realmente encontraron 2 nuevas vulnerabilidades de día cero, logrando el ataque simulado con éxito.
Los datos más inquietantes han llegado: la eficiencia de la IA para ganar dinero en la cadena se ha duplicado aproximadamente cada 1.3 meses en el último año. A nivel técnico, ya pueden encontrar vulnerabilidades, actuar por su cuenta y obtener ganancias.
¿Qué significa esto? Puede que tengamos que repensar las estrategias de auditoría de seguridad de los contratos inteligentes. Antes había que protegerse de las personas, ahora hay que empezar a protegerse de la IA.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
15 me gusta
Recompensa
15
6
Republicar
Compartir
Comentar
0/400
StopLossMaster
· hace6h
¿Reproducción de un agujero de 4.6 millones de dólares? Si realmente es así, la agencia de auditoría tendría que declararse en bancarrota, ¿eh?
Ver originalesResponder0
RetiredMiner
· hace6h
Se ha reproducido una vulnerabilidad de 4.6 millones de dólares, y también se ha descubierto un día cero... Los desarrolladores de contratos ahora no podrán dormir bien, ¿verdad?
Ver originalesResponder0
SerumSquirter
· hace6h
¡Cielo! ¿La IA realmente ha comenzado a usar cupones de clip por sí misma? Ahora la seguridad on-chain tiene que reestructurarse por completo.
Ver originalesResponder0
TokenomicsTinfoilHat
· hace6h
460 millones de dólares... ¿La IA puede obtener ganancias automáticamente? Este es el ritmo que vamos a ser dominados.
Ver originalesResponder0
ArbitrageBot
· hace6h
Se ha replicado un fallo de 4.6 millones de dólares, ahora nos damos cuenta de que hay que prevenir la IA, un poco tarde, ¿no?
Ver originalesResponder0
SocialFiQueen
· hace6h
¿No es esto el fin? ¿Se ha reproducido directamente un agujero de 4.6 millones de dólares? ¿La IA encuentra vulnerabilidades por sí misma y aún puede ganar dinero? Esta situación es un poco grande.
AI Hacker en línea: Un estudio de Anthropic muestra que el modelo ya puede atacar contratos inteligentes de forma autónoma para obtener ganancias.
【Bloquear律动】Anthropic acaba de lanzar una investigación de nivel bomba: la IA ahora puede hackear contratos inteligentes, y lo hace bastante bien.
Hicieron un experimento con Claude Opus 4.5, Sonnet 4.5 y GPT-5: hicieron que estos modelos atacaran contratos reales que habían sido hackeados entre 2020 y 2025. ¿El resultado? Replicaron con éxito una explotación de vulnerabilidad valorada en 4.6 millones de dólares. Aún más impresionante, después de escanear 2849 contratos que no habían sido explotados anteriormente, estos dos modelos realmente encontraron 2 nuevas vulnerabilidades de día cero, logrando el ataque simulado con éxito.
Los datos más inquietantes han llegado: la eficiencia de la IA para ganar dinero en la cadena se ha duplicado aproximadamente cada 1.3 meses en el último año. A nivel técnico, ya pueden encontrar vulnerabilidades, actuar por su cuenta y obtener ganancias.
¿Qué significa esto? Puede que tengamos que repensar las estrategias de auditoría de seguridad de los contratos inteligentes. Antes había que protegerse de las personas, ahora hay que empezar a protegerse de la IA.