Cảnh báo! Đại lý AI đã xâm nhập hợp đồng thông minh để đánh cắp tài sản mô phỏng trị giá hơn 4,5 triệu đô la, báo cáo của Anthropic tiết lộ cuộc khủng hoảng an ninh Tài chính phi tập trung.
Báo cáo nghiên cứu mới nhất của công ty nổi tiếng AI Anthropic đã cảnh báo toàn ngành công nghiệp tiền mã hóa. Các thí nghiệm cho thấy, các đại lý AI tiên tiến hiện tại (như Claude Sonnet 4.5) có khả năng tự phát hiện và khai thác các lỗ hổng hợp đồng thông minh, đã thành công tấn công hơn một nửa số hợp đồng thử nghiệm trong môi trường mô phỏng, thậm chí khai thác ra hai “lỗ hổng zero-day” hoàn toàn mới. Báo cáo cảnh báo, với chi phí sử dụng AI giảm mạnh và lợi nhuận tấn công tăng vọt, các hệ thống tài chính phi tập trung dựa trên blockchain đang phải đối mặt với một cuộc chiến an ninh tự động hóa chưa từng có. Đây vừa là một mối đe dọa nghiêm trọng, vừa báo hiệu rằng một kỷ nguyên an ninh mới với AI chống lại AI đã đến.
Hộp Pandora đã mở: AI đại lý thể hiện sức tấn công đáng kinh ngạc
Khi mọi người vẫn đang thảo luận về cách AI sẽ thay đổi tương lai, báo cáo của Anthropic đã tiết lộ một hiện tại khẩn cấp: Các đại lý AI đã có đủ khả năng thực chiến để đe dọa sự an toàn của tài sản blockchain. Công ty đã tiến hành một thí nghiệm mô phỏng nghiêm ngặt, đưa mô hình AI vào một môi trường blockchain giả lập, với các mục tiêu bao gồm 34 hợp đồng thông minh đã thực sự bị tấn công trong lịch sử và được triển khai sau tháng 3 năm 2025. Kết quả thật đáng kinh ngạc, các đại lý AI đã thành công trong việc xâm nhập vào 17 hợp đồng trong số đó, đánh cắp tổng cộng 4,5 triệu USD tài sản mô phỏng.
Tính phổ biến của mối đe dọa này càng khiến người ta chú ý hơn. Trong một thử nghiệm chuẩn hóa mở rộng, Anthropic đã chọn ra 405 hợp đồng được triển khai trên các chuỗi như Ethereum, BNB Smart Chain và Base từ năm 2020 đến 2025 để thử nghiệm. Mô hình AI đã thành công tấn công 207 trong số đó, với tỷ lệ thành công vượt quá 50%, mô phỏng việc đánh cắp tiền lên tới 550 triệu đô la. Báo cáo thẳng thừng rằng hầu hết các cuộc tấn công blockchain do các bậc thầy con người thực hiện vào năm 2025 có thể lý thuyết được thực hiện tự động bởi các đại lý AI hiện tại. Điều này có nghĩa là ngưỡng tấn công đang nhanh chóng chuyển từ “cần kỹ năng cao” sang “có thể tự động hóa hàng loạt”.
Điều khiến các chuyên gia an ninh cảm thấy lo lắng nhất là khả năng “sáng tạo” mà AI thể hiện. Trong cuộc quét 2849 hợp đồng gần đây được triển khai, không có lỗ hổng đã biết, Claude Sonnet 4.5 và GPT-5 vẫn phát hiện ra hai “lỗ hổng zero-day” hoàn toàn mới, với giá trị tiềm năng khoảng 3694 USD. Điều này chứng tỏ rằng mối đe dọa từ AI không chỉ dừng lại ở việc tái hiện các mô hình tấn công đã biết, mà nó đã bắt đầu có khả năng chủ động khai thác các mối đe dọa mới trong mã chưa biết, sự cân bằng giữa tấn công và phòng thủ trong an toàn hợp đồng thông minh đang bị phá vỡ hoàn toàn.
Máy khai thác lỗ hổng: AI làm thế nào để nhìn thấu rủi ro hợp đồng
AI đại lý làm cách nào để thực hiện điều này? Báo cáo đã phân tích sâu về các loại lỗ hổng đã được khai thác thành công, cung cấp cho chúng ta cái nhìn về tư duy tấn công của AI. Một trong những loại phổ biến nhất là “lỗ hổng ủy quyền”, tức là việc kiểm soát truy cập đến một số chức năng quan trọng trong hợp đồng (như rút tiền của người dùng) có khuyết điểm, không xác minh chặt chẽ danh tính của người gọi. AI đại lý có thể xác định chính xác những “cửa hậu” chưa được khóa này thông qua việc kiểm tra gọi hệ thống và phân tích trạng thái.
Một loại lỗ hổng cao khác liên quan đến “các hàm chỉ đọc không được bảo vệ”. Những hàm này vốn không nên thay đổi trạng thái trên chuỗi, nhưng nếu thiết kế không đúng cách, có thể bị gọi một cách ác ý để thao túng lượng token hoặc các biến trạng thái quan trọng. Các đại lý AI có thể xác định những vector tấn công tiềm ẩn này bằng cách duyệt qua tất cả các hàm có thể gọi và phân tích các tác dụng phụ có thể xảy ra. Ngoài ra, “thiếu xác minh trong logic thu phí” cũng là một vấn đề phổ biến, kẻ tấn công có thể lợi dụng lỗ hổng này để rút tiền phí giao dịch tích lũy một cách bất hợp pháp.
Xét từ góc độ kỹ thuật, lý do mà các mô hình ngôn ngữ lớn (LLM) có thể đảm nhiệm công việc này là vì chúng đã được đào tạo trên một khối lượng mã khổng lồ (bao gồm cả hợp đồng thông minh Solidity), với khả năng liên kết và suy diễn về các mẫu mã, mẫu lỗi tiềm ẩn và mẫu tấn công vượt qua tốc độ của con người. Chúng có thể thử nghiệm các tổ hợp đầu vào và chuỗi gọi hàm với độ song song cực cao như những kiểm toán viên không biết mệt mỏi, tìm kiếm “chìa khóa” có thể dẫn đến trạng thái không mong muốn. Năng lực xem xét mã tự động và quy mô này, một khi được sử dụng cho mục đích xấu, sẽ có hiệu suất gấp hàng nghìn lần so với những kẻ tấn công thủ công truyền thống.
Chi phí sụp đổ và lợi nhuận tăng vọt: Mô hình kinh tế nguy hiểm
Những gì thúc đẩy cuộc khủng hoảng an ninh này không chỉ là sự tiến bộ của công nghệ mà còn là một loạt các logic kinh tế nguy hiểm. Báo cáo của Anthropic đã tiết lộ một xu hướng quan trọng: trong năm qua, lợi nhuận mô phỏng thu được từ việc sử dụng AI để tấn công đã gấp đôi khoảng mỗi 1,3 tháng. Trong khi đó, chi phí để gọi các mô hình AI tiên tiến (như GPT-4o, Claude 3.5 Sonnet) lại đang giảm nhanh chóng.
Hiệu ứng “cắt kéo” này tạo ra một mô hình động lực tấn công cực kỳ hấp dẫn cho kẻ tấn công. Khi lợi nhuận dự kiến từ các cuộc tấn công tăng nhanh hơn đáng kể so với chi phí, việc triển khai số lượng lớn các tác nhân AI để quét lỗ hổng theo kiểu “rải lưới” trở thành một công việc có lợi nhuận. Báo cáo cảnh báo: “Khi chi phí tiếp tục giảm, kẻ tấn công sẽ triển khai nhiều tác nhân AI hơn để phát hiện bất kỳ đoạn mã nào trên con đường dẫn đến tài sản có giá trị, bất kể nó có hiếm hoi đến đâu: một thư viện xác thực bị lãng quên, một dịch vụ nhật ký không nổi bật, hoặc một điểm cuối API đã bị ngừng sử dụng.” Trong tương lai, chúng ta có thể không chỉ đối mặt với các cuộc tấn công chính xác nhắm vào các giao thức DeFi hàng đầu mà còn là một cuộc tấn công không phân biệt, tự động hóa đối với tất cả các hợp đồng thông minh được kết nối mạng.
Dữ liệu cốt lõi của báo cáo nghiên cứu Anthropic
Bộ kiểm tra 1 (hợp đồng bị tấn công gần đây): 34 bản, AI đã tấn công thành công 17 bản, đánh cắp 4,5 triệu USD
Tập thử nghiệm 2 (Cơ sở hợp đồng lịch sử 2020-2025): 405 mẫu, AI đã thành công tấn công 207 mẫu, đánh cắp vốn mô phỏng 5.5 triệu USD.
Kiểm tra khai thác lỗ hổng zero-day: Quét 2849 hợp đồng mới, phát hiện 2 lỗ hổng mới, giá trị tiềm năng 3694 đô la
Chu kỳ tăng trưởng lợi nhuận tấn công: Lợi nhuận tấn công mô phỏng sẽ tăng gấp đôi sau mỗi 1,3 tháng.
Mô hình AI liên quan: Claude Opus 4.5, Claude Sonnet 4.5, GPT-5
Chuỗi khối liên quan: Ethereum, BNB Smart Chain, Base
Bằng mũi giáo AI, xây dựng lá chắn AI: Khởi đầu của thời đại phòng thủ mới
Đối mặt với mối đe dọa rõ ràng như vậy, phản ứng của ngành phải nhanh chóng và mạnh mẽ. Anthropic trong báo cáo không chỉ tạo ra sự hoảng sợ, mà còn chỉ ra rõ ràng lối thoát: phải sử dụng AI để phòng thủ chống lại AI. Điều này báo hiệu rằng kiểm toán hợp đồng thông minh và bảo đảm an ninh sắp bước vào một kỷ nguyên “tăng cường AI” hoàn toàn mới. Mô hình truyền thống, dựa vào nhân lực hạn chế để kiểm tra mã và thử nghiệm mờ, sẽ trở nên vô cùng lỗ hổng trước các cuộc tấn công tự động.
Để thúc đẩy sự tiến bộ trong phòng thủ, Anthropic đã công bố sẽ mã nguồn mở bộ dữ liệu chuẩn sử dụng hợp đồng thông minh cho nghiên cứu lần này. Hành động này nhằm cung cấp cho các nhà phát triển và nhà nghiên cứu an ninh toàn cầu một hộp cát thử nghiệm đa dạng, tiêu chuẩn cao để đào tạo và đánh giá các mô hình AI phòng thủ của riêng họ. Trong tương lai, chúng ta có thể mong đợi sự xuất hiện của các công cụ kiểm toán hỗ trợ AI mạnh mẽ hơn, có khả năng quét sâu trước khi triển khai hợp đồng để phát hiện lỗ hổng theo cách suy nghĩ của kẻ tấn công; cũng có thể thực hiện giám sát thời gian thực trong quá trình hợp đồng hoạt động, ngay khi phát hiện mô hình giao dịch bất thường sẽ được nhận diện và chặn lại.
Cuộc chạy đua vũ trang an ninh do AI dẫn dắt đã chính thức bắt đầu. Đối với các dự án, việc tăng cường ngân sách an ninh và áp dụng các dịch vụ kiểm toán AI tiên tiến hơn sẽ trở thành điều cần thiết cho sự sống còn. Đối với các nhà phát triển, việc học hỏi và thích ứng với lập trình hợp tác với các công cụ AI sẽ trở thành một điều bình thường mới. Đối với toàn bộ ngành Web3, cảnh báo lần này là một bài kiểm tra áp lực quý giá, buộc chúng ta phải đặt an ninh trở lại trung tâm của thiết kế kiến trúc trong khi theo đuổi đổi mới và hiệu quả. Chỉ khi chủ động đón nhận cuộc cách mạng này, chúng ta mới có thể biến các mối đe dọa thành cơ hội để nâng cao mức độ an ninh tổng thể của ngành.
Kết luận
Báo cáo của Anthropic như một tấm gương, vừa phản ánh những cạnh sắc nhọn của mặt tối công nghệ AI, vừa chỉ ra hướng đi để củng cố lá chắn bằng cách tận dụng mặt sáng của nó. Câu chuyện an ninh của hợp đồng thông minh đang chuyển từ “cuộc đối đầu giữa hacker mũ trắng và hacker mũ đen” sang “cuộc đua thuật toán giữa AI phòng thủ và AI tấn công”. Cuộc đua này không có người xem, nó liên quan đến mọi giao thức được xây dựng trên blockchain, mọi tài sản bị khóa trong DeFi, và đá tảng niềm tin của toàn bộ hệ sinh thái phi tập trung. Bây giờ, đã đến lúc cập nhật nhận thức của chúng ta về rủi ro và hành động ngay lập tức - vì các đại lý AI không bao giờ nghỉ ngơi, và phòng thủ của chúng ta cũng phải luôn trực tuyến.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Cảnh báo! Đại lý AI đã xâm nhập hợp đồng thông minh để đánh cắp tài sản mô phỏng trị giá hơn 4,5 triệu đô la, báo cáo của Anthropic tiết lộ cuộc khủng hoảng an ninh Tài chính phi tập trung.
Báo cáo nghiên cứu mới nhất của công ty nổi tiếng AI Anthropic đã cảnh báo toàn ngành công nghiệp tiền mã hóa. Các thí nghiệm cho thấy, các đại lý AI tiên tiến hiện tại (như Claude Sonnet 4.5) có khả năng tự phát hiện và khai thác các lỗ hổng hợp đồng thông minh, đã thành công tấn công hơn một nửa số hợp đồng thử nghiệm trong môi trường mô phỏng, thậm chí khai thác ra hai “lỗ hổng zero-day” hoàn toàn mới. Báo cáo cảnh báo, với chi phí sử dụng AI giảm mạnh và lợi nhuận tấn công tăng vọt, các hệ thống tài chính phi tập trung dựa trên blockchain đang phải đối mặt với một cuộc chiến an ninh tự động hóa chưa từng có. Đây vừa là một mối đe dọa nghiêm trọng, vừa báo hiệu rằng một kỷ nguyên an ninh mới với AI chống lại AI đã đến.
Hộp Pandora đã mở: AI đại lý thể hiện sức tấn công đáng kinh ngạc
Khi mọi người vẫn đang thảo luận về cách AI sẽ thay đổi tương lai, báo cáo của Anthropic đã tiết lộ một hiện tại khẩn cấp: Các đại lý AI đã có đủ khả năng thực chiến để đe dọa sự an toàn của tài sản blockchain. Công ty đã tiến hành một thí nghiệm mô phỏng nghiêm ngặt, đưa mô hình AI vào một môi trường blockchain giả lập, với các mục tiêu bao gồm 34 hợp đồng thông minh đã thực sự bị tấn công trong lịch sử và được triển khai sau tháng 3 năm 2025. Kết quả thật đáng kinh ngạc, các đại lý AI đã thành công trong việc xâm nhập vào 17 hợp đồng trong số đó, đánh cắp tổng cộng 4,5 triệu USD tài sản mô phỏng.
Tính phổ biến của mối đe dọa này càng khiến người ta chú ý hơn. Trong một thử nghiệm chuẩn hóa mở rộng, Anthropic đã chọn ra 405 hợp đồng được triển khai trên các chuỗi như Ethereum, BNB Smart Chain và Base từ năm 2020 đến 2025 để thử nghiệm. Mô hình AI đã thành công tấn công 207 trong số đó, với tỷ lệ thành công vượt quá 50%, mô phỏng việc đánh cắp tiền lên tới 550 triệu đô la. Báo cáo thẳng thừng rằng hầu hết các cuộc tấn công blockchain do các bậc thầy con người thực hiện vào năm 2025 có thể lý thuyết được thực hiện tự động bởi các đại lý AI hiện tại. Điều này có nghĩa là ngưỡng tấn công đang nhanh chóng chuyển từ “cần kỹ năng cao” sang “có thể tự động hóa hàng loạt”.
Điều khiến các chuyên gia an ninh cảm thấy lo lắng nhất là khả năng “sáng tạo” mà AI thể hiện. Trong cuộc quét 2849 hợp đồng gần đây được triển khai, không có lỗ hổng đã biết, Claude Sonnet 4.5 và GPT-5 vẫn phát hiện ra hai “lỗ hổng zero-day” hoàn toàn mới, với giá trị tiềm năng khoảng 3694 USD. Điều này chứng tỏ rằng mối đe dọa từ AI không chỉ dừng lại ở việc tái hiện các mô hình tấn công đã biết, mà nó đã bắt đầu có khả năng chủ động khai thác các mối đe dọa mới trong mã chưa biết, sự cân bằng giữa tấn công và phòng thủ trong an toàn hợp đồng thông minh đang bị phá vỡ hoàn toàn.
Máy khai thác lỗ hổng: AI làm thế nào để nhìn thấu rủi ro hợp đồng
AI đại lý làm cách nào để thực hiện điều này? Báo cáo đã phân tích sâu về các loại lỗ hổng đã được khai thác thành công, cung cấp cho chúng ta cái nhìn về tư duy tấn công của AI. Một trong những loại phổ biến nhất là “lỗ hổng ủy quyền”, tức là việc kiểm soát truy cập đến một số chức năng quan trọng trong hợp đồng (như rút tiền của người dùng) có khuyết điểm, không xác minh chặt chẽ danh tính của người gọi. AI đại lý có thể xác định chính xác những “cửa hậu” chưa được khóa này thông qua việc kiểm tra gọi hệ thống và phân tích trạng thái.
Một loại lỗ hổng cao khác liên quan đến “các hàm chỉ đọc không được bảo vệ”. Những hàm này vốn không nên thay đổi trạng thái trên chuỗi, nhưng nếu thiết kế không đúng cách, có thể bị gọi một cách ác ý để thao túng lượng token hoặc các biến trạng thái quan trọng. Các đại lý AI có thể xác định những vector tấn công tiềm ẩn này bằng cách duyệt qua tất cả các hàm có thể gọi và phân tích các tác dụng phụ có thể xảy ra. Ngoài ra, “thiếu xác minh trong logic thu phí” cũng là một vấn đề phổ biến, kẻ tấn công có thể lợi dụng lỗ hổng này để rút tiền phí giao dịch tích lũy một cách bất hợp pháp.
Xét từ góc độ kỹ thuật, lý do mà các mô hình ngôn ngữ lớn (LLM) có thể đảm nhiệm công việc này là vì chúng đã được đào tạo trên một khối lượng mã khổng lồ (bao gồm cả hợp đồng thông minh Solidity), với khả năng liên kết và suy diễn về các mẫu mã, mẫu lỗi tiềm ẩn và mẫu tấn công vượt qua tốc độ của con người. Chúng có thể thử nghiệm các tổ hợp đầu vào và chuỗi gọi hàm với độ song song cực cao như những kiểm toán viên không biết mệt mỏi, tìm kiếm “chìa khóa” có thể dẫn đến trạng thái không mong muốn. Năng lực xem xét mã tự động và quy mô này, một khi được sử dụng cho mục đích xấu, sẽ có hiệu suất gấp hàng nghìn lần so với những kẻ tấn công thủ công truyền thống.
Chi phí sụp đổ và lợi nhuận tăng vọt: Mô hình kinh tế nguy hiểm
Những gì thúc đẩy cuộc khủng hoảng an ninh này không chỉ là sự tiến bộ của công nghệ mà còn là một loạt các logic kinh tế nguy hiểm. Báo cáo của Anthropic đã tiết lộ một xu hướng quan trọng: trong năm qua, lợi nhuận mô phỏng thu được từ việc sử dụng AI để tấn công đã gấp đôi khoảng mỗi 1,3 tháng. Trong khi đó, chi phí để gọi các mô hình AI tiên tiến (như GPT-4o, Claude 3.5 Sonnet) lại đang giảm nhanh chóng.
Hiệu ứng “cắt kéo” này tạo ra một mô hình động lực tấn công cực kỳ hấp dẫn cho kẻ tấn công. Khi lợi nhuận dự kiến từ các cuộc tấn công tăng nhanh hơn đáng kể so với chi phí, việc triển khai số lượng lớn các tác nhân AI để quét lỗ hổng theo kiểu “rải lưới” trở thành một công việc có lợi nhuận. Báo cáo cảnh báo: “Khi chi phí tiếp tục giảm, kẻ tấn công sẽ triển khai nhiều tác nhân AI hơn để phát hiện bất kỳ đoạn mã nào trên con đường dẫn đến tài sản có giá trị, bất kể nó có hiếm hoi đến đâu: một thư viện xác thực bị lãng quên, một dịch vụ nhật ký không nổi bật, hoặc một điểm cuối API đã bị ngừng sử dụng.” Trong tương lai, chúng ta có thể không chỉ đối mặt với các cuộc tấn công chính xác nhắm vào các giao thức DeFi hàng đầu mà còn là một cuộc tấn công không phân biệt, tự động hóa đối với tất cả các hợp đồng thông minh được kết nối mạng.
Dữ liệu cốt lõi của báo cáo nghiên cứu Anthropic
Bộ kiểm tra 1 (hợp đồng bị tấn công gần đây): 34 bản, AI đã tấn công thành công 17 bản, đánh cắp 4,5 triệu USD
Tập thử nghiệm 2 (Cơ sở hợp đồng lịch sử 2020-2025): 405 mẫu, AI đã thành công tấn công 207 mẫu, đánh cắp vốn mô phỏng 5.5 triệu USD.
Kiểm tra khai thác lỗ hổng zero-day: Quét 2849 hợp đồng mới, phát hiện 2 lỗ hổng mới, giá trị tiềm năng 3694 đô la
Chu kỳ tăng trưởng lợi nhuận tấn công: Lợi nhuận tấn công mô phỏng sẽ tăng gấp đôi sau mỗi 1,3 tháng.
Mô hình AI liên quan: Claude Opus 4.5, Claude Sonnet 4.5, GPT-5
Chuỗi khối liên quan: Ethereum, BNB Smart Chain, Base
Bằng mũi giáo AI, xây dựng lá chắn AI: Khởi đầu của thời đại phòng thủ mới
Đối mặt với mối đe dọa rõ ràng như vậy, phản ứng của ngành phải nhanh chóng và mạnh mẽ. Anthropic trong báo cáo không chỉ tạo ra sự hoảng sợ, mà còn chỉ ra rõ ràng lối thoát: phải sử dụng AI để phòng thủ chống lại AI. Điều này báo hiệu rằng kiểm toán hợp đồng thông minh và bảo đảm an ninh sắp bước vào một kỷ nguyên “tăng cường AI” hoàn toàn mới. Mô hình truyền thống, dựa vào nhân lực hạn chế để kiểm tra mã và thử nghiệm mờ, sẽ trở nên vô cùng lỗ hổng trước các cuộc tấn công tự động.
Để thúc đẩy sự tiến bộ trong phòng thủ, Anthropic đã công bố sẽ mã nguồn mở bộ dữ liệu chuẩn sử dụng hợp đồng thông minh cho nghiên cứu lần này. Hành động này nhằm cung cấp cho các nhà phát triển và nhà nghiên cứu an ninh toàn cầu một hộp cát thử nghiệm đa dạng, tiêu chuẩn cao để đào tạo và đánh giá các mô hình AI phòng thủ của riêng họ. Trong tương lai, chúng ta có thể mong đợi sự xuất hiện của các công cụ kiểm toán hỗ trợ AI mạnh mẽ hơn, có khả năng quét sâu trước khi triển khai hợp đồng để phát hiện lỗ hổng theo cách suy nghĩ của kẻ tấn công; cũng có thể thực hiện giám sát thời gian thực trong quá trình hợp đồng hoạt động, ngay khi phát hiện mô hình giao dịch bất thường sẽ được nhận diện và chặn lại.
Cuộc chạy đua vũ trang an ninh do AI dẫn dắt đã chính thức bắt đầu. Đối với các dự án, việc tăng cường ngân sách an ninh và áp dụng các dịch vụ kiểm toán AI tiên tiến hơn sẽ trở thành điều cần thiết cho sự sống còn. Đối với các nhà phát triển, việc học hỏi và thích ứng với lập trình hợp tác với các công cụ AI sẽ trở thành một điều bình thường mới. Đối với toàn bộ ngành Web3, cảnh báo lần này là một bài kiểm tra áp lực quý giá, buộc chúng ta phải đặt an ninh trở lại trung tâm của thiết kế kiến trúc trong khi theo đuổi đổi mới và hiệu quả. Chỉ khi chủ động đón nhận cuộc cách mạng này, chúng ta mới có thể biến các mối đe dọa thành cơ hội để nâng cao mức độ an ninh tổng thể của ngành.
Kết luận
Báo cáo của Anthropic như một tấm gương, vừa phản ánh những cạnh sắc nhọn của mặt tối công nghệ AI, vừa chỉ ra hướng đi để củng cố lá chắn bằng cách tận dụng mặt sáng của nó. Câu chuyện an ninh của hợp đồng thông minh đang chuyển từ “cuộc đối đầu giữa hacker mũ trắng và hacker mũ đen” sang “cuộc đua thuật toán giữa AI phòng thủ và AI tấn công”. Cuộc đua này không có người xem, nó liên quan đến mọi giao thức được xây dựng trên blockchain, mọi tài sản bị khóa trong DeFi, và đá tảng niềm tin của toàn bộ hệ sinh thái phi tập trung. Bây giờ, đã đến lúc cập nhật nhận thức của chúng ta về rủi ro và hành động ngay lập tức - vì các đại lý AI không bao giờ nghỉ ngơi, và phòng thủ của chúng ta cũng phải luôn trực tuyến.