Chuyển tiếp Tiêu đề Gốc ‘AI and Verifiability’
Khi các hệ thống trí tuệ nhân tạo ngày càng tích hợp với các hệ sinh thái blockchain, việc đảm bảo tính xác thực của đầu ra trí tuệ nhân tạo trở thành một điểm mốc quan trọng để thúc đẩy sự tin cậy, minh bạch và trách nhiệm. Điều này đặc biệt quan trọng đối với các ứng dụng tài chính phi tập trung (DeFi) và xác minh nhân thân, nơi mà độ chính xác và đáng tin cậy có thể ảnh hưởng trực tiếp đến kết quả tài chính, quyết định quản trị và danh tính người dùng.
Trường hợp cho AI có thể xác minh trong các hệ thống phi tập trung
Đảm bảo quy trình ra quyết định là minh bạch và dễ hiểu. Các bên liên quan có cái nhìn sâu sắc về cách suy luận được rút ra - rất quan trọng khi quyết định ảnh hưởng đến giao dịch trên chuỗi hoặc quản trị quy mô lớn.
Theo dõi dữ liệu, tham số và kiến trúc mô hình được sử dụng để tạo ra dự đoán trí tuệ nhân tạo. Bằng việc xác định nguồn gốc, người dùng biết dữ liệu huấn luyện đến từ đâu và mô hình nào đã được sử dụng, tăng cường sự tin cậy và giảm khả năng thông tin sai lệch.
Xác nhận rằng đầu ra cuối cùng của trí tuệ nhân tạo đều chính xác và không bị thay đổi. Trong ngữ cảnh phi tập trung, điều này thường liên quan đến cơ chế chứng minh (ví dụ: chứng minh không thông tin, sự đồng thuận lấy mẫu) để đảm bảo rằng các tính toán hoặc suy luận không bị can thiệp ngoài chuỗi.
Thách thức trong tính xác minh trên chuỗi của trí tuệ nhân tạo
Mặc dù blockchain xuất sắc trong việc cung cấp sổ cái không thể thay đổi và niềm tin phân tán, nhưng tính toán AI trên chuỗi có thể rất tốn kém. Ví dụ, phép nhân ma trận cho 1000×1000 số nguyên có thể tiêu tốn hàng tỷ gas—vượt quá giới hạn gas khối hiện tại của Ethereum (Zheng và cộng sự, 2021). Do đó, hầu hết các dự án AI phải phụ thuộc vào tính toán ngoại chuỗi kèm theo xác minh trên chuỗi.
Tuy nhiên, các phương pháp ngoại chuỗi đem đến những thách thức mới:
Rủi ro tiềm ẩn: Mà không có xác minh mạnh mẽ, các bên hành động độc hại có thể gửi dữ liệu không chính xác hoặc bị thao túng.
Nhược điểm tập trung: Phụ thuộc vào oracles ngoại chuỗi hoặc máy chủ riêng có thể làm suy yếu tinh thần phi tập trung, dẫn đến kiểm duyệt hoặc điểm hỏng duy nhất.
Do đó, các giải pháp mới nổi nhằm duy trì hiệu suất cao trong khi tích hợp xác minh mật mã hoặc dựa trên mẫu, cân bằng hiệu quả và phân quyền.
EigenLayer là một giao thức restaking cho phép các người xác thực Ethereum “restake” ETH của họ để bảo vệ các dịch vụ phi tập trung bổ sung, được biết đến với tên gọi Dịch vụ Được Xác thực Một cách Chủ Động (AVS). Thay vì cần một bộ xác thực mới cho mỗi nhiệm vụ chuyên biệt (ví dụ, xác thực AI, hoạt động qua chuỗi), EigenLayer tái sử dụng mạng xác thực Ethereum mạnh mẽ và phi tập trung.
EigenLayer cải thiện bảo mật bằng cách cho phép các Dịch vụ Được Xác thực Hoạt động mới (AVS) kết nối vào bộ xác thực hiện tại của Ethereum. Bộ xác thực này đã lớn, có vốn mạnh mẽ và phân phối địa lý, cung cấp các cam kết cryptoeconomic mạnh mẽ mà không cần khởi động lại một mạng mới từ đầu.
Bằng cách kích hoạt việc restaking, EigenLayer giảm đáng kể chi phí hoạt động. Các dự án không cần nữa phải tạo và duy trì hệ sinh thái xác minh của riêng mình, từ đó giảm cả chi phí cơ sở hạ tầng và rào cản để triển khai các dịch vụ phi tập trung mới trên chuỗi.
Ngoài ra, hệ thống cung cấp tính linh hoạt cao. AVS có thể tùy chỉnh logic đồng thuận và xác thực riêng của họ trong khi vẫn kế thừa tính an toàn ở tầng cơ bản của Ethereum, khiến cho EigenLayer trở thành nền tảng lý tưởng cho các ứng dụng phi tập trung có tính module, an toàn và mở rộng được.
Hyperbolic Labs giới thiệu Proof of Sampling (PoSP), một phương pháp thay thế hiệu quả, có thể mở rộng so với zkML truyền thống hoặc chứng minh gian lận lạc quan cho việc xác thực AI. Giao thức xác thực dựa trên mẫu lấy mẫu này đảm bảo rằng người dùng của chúng tôi có thể tin tưởng vào kết quả của các mô hình đang được đào tạo và chạy trên mạng GPU phân quyền của chúng tôi. Giao thức này, được biết đến với tên Proof of Sampling (PoSP), là tiêu chuẩn vàng mới cho việc xác thực trong lĩnh vực AI.
Phát triển bởi nhóm Hyperbolic phối hợp với các nhà nghiên cứu từ Đại học UC Berkeley và Đại học Columbia, PoSP sử dụng lý thuyết trò chơi để bảo vệ hệ thống phi tập trung. Nó xác nhận một mẫu chiến lược của kết quả và thực hiện quy trình trọng tài cho các nút không trung thực để khuyến khích hành vi 100% trung thực trên toàn bộ mạng lưới.
Chứng minh của Chứng minh Tự phát (PoSP) cung cấp một số lợi ích chính: nó cho phép xác minh hiệu quả bằng cách thêm ít hơn 1% chi phí tính toán, cho phép các nút duy trì tốc độ hoạt động gần như nguyên bản. An ninh mạnh mẽ của nó đảm bảo các thành viên tham gia luôn trung thực, vì kiểm tra ngẫu nhiên khiến gian lận trở nên quá rủi ro không đáng giá. Thông qua động lực lý thuyết trò chơi, PoSP tạo ra cân bằng Nash chiến lược nguyên thủy nơi hành vi trung thực luôn là sự lựa chọn hợp lý. Cuối cùng, PoSP có khả năng mở rộng cao cho dịch vụ trí tuệ nhân tạo, có khả năng hỗ trợ khối lượng công việc trí tuệ nhân tạo phi tập trung quy mô lớn trong khi đảm bảo quá trình tính toán và suy luận hiệu suất cao vẫn có thể được xác minh và đáng tin cậy.
Kiểm Tra Ngẫu Nhiên: Một tập hợp các máy xác thực (thông qua EigenLayer) quay và kiểm tra định kỳ các tính toán AI. Việc xác minh liên tục này ngăn chặn gian lận có hệ thống.
Khuyến mãi cân bằng Nash: Hành vi độc ác là không hợp lý kinh tế đối với người xác nhận - đầu ra không trung thực hoặc không nhất quán dẫn đến các hình phạt có thể bị cắt giảm.
Tốc độ Xử lý Cao: Overhead hiệu suất thấp của PoSP làm cho nó rất phù hợp cho các trường hợp sử dụng đòi hỏi suy luận trí tuệ nhân tạo nhanh chóng và thường xuyên.
Khác với các giải pháp trí tuệ nhân tạo phi tập trung khác, khi bạn chạy suy luận trên mạng lưới phi tập trung của Hyperbolic, bạn có thể tự tin rằng bạn đang nhận được kết quả hợp lệ.
Bằng cách tích hợp PoSP vào EigenLayer, các dịch vụ trí tuệ nhân tạo phi tập trung có thể đạt được một cấu trúc an toàn, tối thiểu hóa niềm tin có thể xử lý một số lượng yêu cầu suy luận ngày càng tăng mà không cần hy sinh tính phân tán hoặc hiệu quả về chi phí.
Xác thực Ngẫu nhiên: Người xác thực được chọn ngẫu nhiên để xác minh kết quả, đảm bảo kết quả không thiên vị.
Hỗ trợ AVS có khả năng mở rộng: PoSP giảm yêu cầu tính toán, giúp EigenLayer bảo vệ dịch vụ quy mô lớn một cách hiệu quả.
Ngăn chặn gian lận: Hình phạt nghiêm ngặt làm cho sự không trung thực không đáng lợi, trong khi hành vi trung thực vẫn là chiến lược tối ưu.
“Giao thức EigenLayer kết hợp với giao thức Proof of Sampling của chúng tôi đã cách mạng hoá cách chúng tôi bảo mật các dịch vụ phi tập trung. Chúng tôi hiện cung cấp cơ sở hạ tầng có thể mở rộng, đáng tin cậy và chống gian lận với chi phí chỉ là một phần nhỏ.” - Jasper Zhang, CEO của Hyperbolic
Đọc toàn bộ bài báo về PoSP tại đây
Mạng Mira nhằm giải quyết một thách thức cơ bản trong lĩnh vực AI, đó là xu hướng của các mô hình ngôn ngữ lớn (LLMs) tạo ra thông tin không chính xác. Được thiết kế để giảm thiểu sự ảo giác và tối đa hóa độ chính xác của đầu ra mà không cần sự giám sát của con người, Mira tận dụng một mạng lưới phân cấp của các nút độc lập để xác minh đầu ra AI một cách không cần tin cậy một cách song song.
Có ba bước trong kiến trúc của Mira
Nhị phân hóa
Quá trình chia nhỏ các ‘yêu cầu’ ra.
Xác Minh Phân Tán
Các yêu cầu trên được xác minh bởi một mạng lưới các nút xác minh chạy các mô hình chuyên biệt để xác minh các yêu cầu. Việc xác minh được thực hiện dưới dạng câu hỏi nhiều lựa chọn. Các yêu cầu để xác minh được phân chia ngẫu nhiên trên các nút xác minh, điều này làm cho việc kết đồng hành khó khăn.
Chứng minh của việc xác minh
Một cơ chế thống nhất kết hợp giữa Proof-of-Work (PoW) và Proof-of-Stake (PoS) được sử dụng. Mỗi người xác minh cần đặt cược để tham gia xác minh. Phương pháp này đảm bảo rằng người xác minh thực sự đang thực hiện suy luận, thay vì chỉ làm chứng. Số cược của một người xác minh sẽ bị cắt giảm nếu đầu ra của họ được phát hiện liên tục lệch khỏi sự nhất quán.
Một khi sự đồng thuận đã được đạt được bởi mạng lưới về một đầu ra, một chứng chỉ mật mã được tạo ra và được viết vào chuỗi khối, tạo ra một hồ sơ bất biến của các sự thật đã được xác minh.
Nguồn:Bản Trắng của Mạng Mira
Quyền riêng tư là một khía cạnh quan trọng của thiết kế của Mira. Với việc các yêu cầu được chia nhỏ một cách ngẫu nhiên, không thể cho một nhà điều hành nút duy nhất tái tạo kết quả ban đầu. Ngoài ra, các phản hồi xác minh từ các bên xác minh độc lập được giữ riêng tư trước khi đạt được sự nhất trí, ngăn chặn rò rỉ thông tin.
Mira đang tìm cách xác minh nội dung ngày càng phức tạp, bao gồm mã code, dữ liệu cấu trúc và nội dung đa phương tiện. Trong tương lai, Mira cũng sẽ tái tạo nội dung không hợp lệ khi phát hiện nội dung không hợp lệ, đạt được cả sự chính xác lẫn tốc độ trong đầu ra trí tuệ nhân tạo. Cuối cùng, Mạng Mira sẽ có thể tích luỹ các sự thật được bảo đảm về mặt kinh tế, tạo ra một cơ sở dữ liệu để kiểm chứng sự thật.
Khi sử dụng mạng tăng lên - tạo ra phí cao hơn - tăng cường giải thưởng xác minh tốt hơn - thu hút thêm các nhà điều hành nút - cải thiện độ chính xác, chi phí và độ trễ trong việc xác minh câu trả lời
Atoma là một mạng lưới thực thi trí tuệ nhân tạo phi tập trung, riêng tư và có thể xác minh, hoạt động trên mạng lưới chính Sui. Kiến trúc cốt lõi bao gồm ba yếu tố: (a) lớp tính toán và; (b) lớp xác minh và; (c) lớp quyền riêng tư.
Tính toán Layer
Một mạng lưới toàn cầu của các nút thực hiện xử lý các yêu cầu suy luận. Một số lượng lớn các nút có sẵn thông qua việc làm việc với các trung tâm dữ liệu khác nhau và các thiết bị cạnh như thiết bị số cá nhân của cá nhân.
Với Atoma, trọng số mô hình có sẵn cục bộ trên các nút, tăng tốc độ suy luận khi yêu cầu được nhận. Ngoài ra, các yêu cầu nhận được được định tuyến đến nút phù hợp nhất, phù hợp với nhiệm vụ với hiệu suất và chi phí tương ứng.
Atoma tập trung vào việc tối ưu hóa hiệu suất của việc suy luận thông qua một số tính năng, bao gồm FlashAttention và Paged Attention, cả hai đều góp phần giảm thiểu chi phí tính toán.
Verification Layer
Sự toàn vẹn tính toán được xác minh thông qua sự nhất trí lấy mẫu. Đây là quá trình mà các nút được chọn ngẫu nhiên để chạy suy luận và tạo ra một băm mật mã của kết quả. Nếu tất cả các băm được tạo ra bởi bộ các nút được chọn khớp nhau, kết quả suy luận được xác minh. Nếu có sự không nhất quán giữa các băm được tạo ra, mạng sẽ tìm kiếm nút không trung thực, và sẽ bị phạt bằng cách cắt giảm cổ phần của nó.
Cơ hội của một kẻ tấn công độc hại có thể kiểm soát nửa hoặc hơn nửa công suất GPU của toàn bộ mạng lưới để gian lận hệ thống rất thấp, và trở nên khó khăn hơn khi mạng lưới nút mở rộng. Số lượng nút được chọn để lấy mẫu là linh hoạt, đối với các nhiệm vụ có cổ phần cao, một tập hợp lớn hơn các nút có thể được chọn.
Lớp bảo mật
Atoma đặt mạnh về việc giữ an toàn và riêng tư cho dữ liệu người dùng, bằng cách thực hiện tính toán trong Môi trường Thực thi Đáng tin cậy (TEE). Dữ liệu được nhập bởi người dùng được mã hóa và chỉ được giải mã trong TEE. Điều này ngăn chặn bất kỳ bên thứ ba nào trên blockchain khác từ việc xem dữ liệu của người dùng. Sau khi suy luận đã được thực hiện, kết quả được mã hóa trước khi trả lại cho người dùng.
Mặc dù phương án trên đây là một giải pháp an toàn, nhưng đáng lưu ý rằng nó đi kèm với một sự đánh đổi về mặt chi phí tính toán cao hơn, có thể dẫn đến việc tăng phí cho người dùng.
Tương tự như Atoma Network ở trên, Aizel Network chọn phương pháp dựa trên TEE. Sự khác biệt ở đây là Aizel đã tích hợp Multi-Party Computation (MPC) vào luồng công việc của họ, nơi các nhiệm vụ suy luận được định tuyến đến các TEE khác nhau. Điều này nhằm mục đích phân tán mạng lưới, đảm bảo rằng suy luận vẫn có thể thực hiện ngay cả khi một TEE bị hack hoặc ngưng hoạt động.
Fortytwo champions một mô hình “suy luận tụ điểm” xây dựng xung quanh các Mô hình Nhỏ, Chuyên biệt (SLMs). Thay vì phụ thuộc vào một trí tuệ nhân tạo khổng lồ và toàn diện, mạng lưới điều phối nhiều mô hình do người đóng góp điều hành, mỗi mô hình được điều chỉnh tinh chỉnh cho các nhiệm vụ hoặc lĩnh vực cụ thể. Các mô hình này hoạt động song song—xác minh, tinh chỉnh và kiểm tra chéo các đầu ra của nhau—để cung cấp các suy luận chính xác và đáng tin cậy hơn.
Cấu trúc phi tập trung này giải quyết các vấn đề mà các mô hình lớn đơn lẻ thường gặp phải, như là bottleneck trong quá trình huấn luyện, yêu cầu phần cứng đắt đỏ, và các điểm thất bại đơn lẻ. Bằng cách phân phối trí tuệ qua nhiều mô hình nhỏ và người đóng góp, Fortytwo đảm bảo tính mở rộng và khả năng chống lỗi.
Khởi tạo Dự án Đầu tiên
Trước khi bắt đầu bất kỳ nhiệm vụ nào, người đóng góp xác định mục tiêu, ngân sách và ràng buộc. Phương pháp này điều chỉnh mọi SLM với nhiệm vụ tổng thể—dù đó là tóm tắt văn bản, phân tích mã, hoặc bất kỳ suy luận chuyên sâu nào khác.
Chuyên môn do Người đóng góp xác định
Các nhà vận hành nút cá nhân mang đến mạng lưới các mô hình được điều chỉnh tinh tế của riêng họ. Họ giữ hoàn toàn quyền kiểm soát trọng số, độ lệch, và dữ liệu độc quyền—đảm bảo sự riêng tư cho từng chủ sở hữu mô hình. Các mô hình chuyên ngành này có thể tập trung vào các lĩnh vực như phân tích cảm xúc, phân tích văn bản pháp lý, hoặc thậm chí là tạo mã cụ thể cho một lĩnh vực cụ thể.
Quyền riêng tư của Weights & Biases
Một khía cạnh quan trọng của Fortytwo là người đóng góp không cần phải chia sẻ bên trong mô hình nguyên bản. Chỉ kết quả suy luận được chia sẻ với mạng. Thiết kế này bảo toàn tài sản trí tuệ của mỗi chủ sở hữu mô hình và giúp giảm thiểu các rủi ro liên quan đến việc tiết lộ dữ liệu nhạy cảm.
Hợp tác Đa SLM
Công việc được chia thành 7-8 (hoặc nhiều hơn) SLM chuyên ngành, mỗi SLM cung cấp một góc nhìn độc đáo về lĩnh vực. Bằng cách chia nhỏ các nhiệm vụ lớn thành các vấn đề phụ nhỏ hơn, mạng lưới tận dụng hiệu quả sức mạnh của mỗi mô hình.
Hỗn hợp chuyên gia phẳng (MoE)
Thay vì xếp các chuyên gia phụ ở nhiều tầng, Fortytwo sử dụng phương pháp MoE “bằng phẳng”, trong đó mỗi mô hình xử lý dữ liệu độc lập. Thiết kế này có thể hiệu quả đặc biệt vì tránh sự phức tạp từ cổng phân cấp, giúp các chuyên gia tập trung hoàn toàn vào nhiệm vụ phụ của họ.
Phát hiện lỗi tập thể
Đánh giá đồng nghiệp đóng vai trò then chốt trong việc duy trì độ chính xác của suy luận. Khi các mô hình không đồng ý, mạng sẽ đánh dấu những khác biệt để phân tích sâu hơn. Quy trình kiểm định chéo này quan trọng trong việc phát hiện lỗi sớm và đảm bảo đầu ra chất lượng cao.
Phần cứng dành cho người tiêu dùng
Fortytwo được tối ưu hóa cho các thiết bị như Apple Silicon và GPU RTX, giảm thiểu rào cản về chi phí và mở rộng cơ sở người vận hành nút tiềm năng. Phương pháp này làm dân chủ hóa trí tuệ nhân tạo bằng cách cho phép nhiều cá nhân hơn - không chỉ là các trung tâm dữ liệu lớn - tham gia.
Cụm triển khai
Nhiều nhà vận hành nút chọn nền tảng đám mây (ví dụ: AWS) hoặc các cụm tự lưu trữ để giảm thiểu độ trễ. Các cụm được phối hợp tốt trở nên đặc biệt quý giá trong các tình huống yêu cầu thời gian cụ thể nơi ngay cả những độ trễ nhỏ cũng có thể ảnh hưởng đáng kể đến trải nghiệm người dùng.
Đang tăng sự tham gia
Hàng ngàn người tham gia đã thể hiện sự quan tâm đến việc vận hành các nút suy luận, tạo ra một mạng lưới đa dạng và phân phối. Sự mở rộng này mang đến nhiều tài nguyên tính toán trực tuyến hơn, từ đó tăng cường hiệu suất và sự linh hoạt.
Đóng góp theo mô hình giống Wikipedia
Tương tự như cách các biên tập viên Wikipedia hợp tác trên các bài viết, mỗi nhà điều hành nút có thể tăng cường hoặc điều chỉnh các mô hình chuyên sâu và chia sẻ các kỹ thuật suy luận cải thiện. Việc bảo trì và hoàn thiện theo nhóm này thúc đẩy sự đổi mới liên tục và nâng cao tổng thể thông minh của mạng lưới.
Lagrange đang ở bờ vực của việc sử dụng công nghệ Zero-Knowledge (ZK) để mang tính xác thực đến AI. Phương châm của họ - “Tương lai của AI là ZK, và tương lai của nhân loại là Lagrange” - nhấn mạnh niềm tin rằng, khi AI tiến triển về siêu trí tuệ, chúng ta phải đảm bảo sự minh bạch và niềm tin vào cách hoạt động của những mô hình này.
DeepProve: Hiệu suất cao zkML
Bằng cách loại bỏ các tương tác trí tuệ nhân tạo ‘hộp đen’, Lagrange đảm bảo người dùng không cần phải tin tưởng mù quáng vào trí tuệ nhân tạo. Trong môi trường phi tập trung nơi việc giảm thiểu sự tin cậy là rất quan trọng, sự chắc chắn mật mã về tính toàn vẹn của mô hình và độ chính xác của kết quả trở nên quan trọng.
Hơn nữa, Inference Labs hoạt động như cánh tay tập trung vào ứng dụng của Lagrange, nối liền nghiên cứu và triển khai thực tế. Trong khi Lagrange tập trung vào thiết kế mật mã và mạch cốt lõi, Inference Labs đảm bảo những đột phá này sẵn sàng cho việc sản xuất.
Integrations in the real world
Nhúng zkML vào các đường ống học máy hiện có, tập trung vào các lĩnh vực như DeFi, trò chơi, chăm sóc sức khỏe và nguồn gốc chuỗi cung ứng.
Đối tác với các nhà lãnh đạo ngành để kiểm tra tính năng Lagrange mới dưới ràng buộc thực tế (ví dụ, số lượng tham số lớn, yêu cầu độ trễ nghiêm ngặt).
EZKL là một hệ thống mã nguồn mở để tạo ra trí tuệ nhân tạo và phân tích có thể xác minh bằng bằng chứng không tiết lộ (ZKPs). Nó cho phép các nhà phát triển chứng minh rằng các mô hình trí tuệ nhân tạo đã được thực thi đúng cách mà không tiết lộ dữ liệu nhạy cảm hoặc chi tiết mô hình độc quyền. Lấy cảm hứng từ các hệ thống như Face ID của Apple, EZKL mở rộng tính bảo mật không thể xâm phạm của mô hình cho bất kỳ mô hình nào trên bất kỳ thiết bị nào mà không phụ thuộc vào phần cứng chuyên dụng như TEEs.
Cơ sở hạ tầng chứng minh không thông báo
EZKL tự động hóa toàn bộ vòng đời ZKP - từ việc biên dịch mô hình đến việc tạo ra và xác minh chứng minh. Người dùng cung cấp các mô hình AI dưới định dạng ONNX, sau đó EZKL biên dịch chúng thành mạch thân thiện với ZK bằng cách sử dụng phiên bản tối ưu hóa của hệ thống chứng minh Halo2. Hệ thống sau đó tạo ra các chứng minh mật mã về việc thực thi mô hình đúng mà có thể được xác minh trên bất kỳ thiết bị nào.
Quá trình mật mã hóa này cho phép niềm tin phi tập trung trong các ứng dụng trí tuệ nhân tạo quan trọng, như ra quyết định tài chính, xác thực sinh trắc học, và xác nhận suy luận thời gian thực.
Collaborative SNARKs (Cosnarks)
EZKL gần đây đã giới thiệu Collaborative SNARKs (cosnarks), cho phép hai bên—như chủ sở hữu mô hình và chủ sở hữu dữ liệu—cùng tạo ra một bằng chứng ZK mà không có bên nào tiết lộ tài sản bí mật của họ. Khác với các hệ thống chứng minh MPC được ủy quyền, cosnarks loại bỏ các giả định tin cậy bổ sung bằng cách giới hạn tính toán chỉ đến các bên liên quan.
Sự tiến bộ này cho phép các trường hợp sử dụng như việc xác định tín dụng riêng, chiến lược giao dịch bí mật, và xác thực danh tính không biết. Việc triển khai tận dụng thư viện MPC tối ưu hóa 2PC của Renegade và được tích hợp trực tiếp vào Lilith, lớp điều phối đám mây của EZKL.
Hỗ trợ mô hình và linh hoạt
EZKL hỗ trợ một loạt các kiến trúc AI/ML, bao gồm CNNs, RNNs, bộ biến áp kiểu GPT, cây quyết định và các mô hình lan truyền ổn định. Bất kỳ mô hình nào tương thích với tiêu chuẩn ONNX đều có thể được chuyển đổi thành mạch ZK.
Bằng cách trừu tượng hóa logic mô hình thành mạch toán học, EZKL cho phép suy luận bảo vệ quyền riêng tư trên các ngành như tài chính, chăm sóc sức khỏe và danh tính. Logic dựa trên cây, cơ chế chú ý và các phép toán ma trận quy mô lớn đều được hỗ trợ trong framework được Halo2 hỗ trợ.
Kinh nghiệm phát triển
EZKL ưu tiên tính sẵn sàng tiếp cận và trừu tượng hóa sự phức tạp. Các nhà phát triển không cần kiến thức mật mã trước đó, kinh nghiệm thiết kế mạch, hoặc kỹ năng DevOps tiên tiến. Hệ thống cung cấp liên kết trong CLI, Python, JavaScript, và Rust—giúp dễ dàng nhúng luồng công việc ZK vào các đường ống ML hiện có.
Tự động tạo ràng buộc, các lệnh chứng minh đơn giản, và tích hợp mượt mà với các công cụ điều phối cho phép các nhà phát triển tập trung hoàn toàn vào logic ứng dụng.
ORA là một giao thức máy trung gian không phụ thuộc vào chuỗi mạng nào, nó nối liền trí tuệ nhân tạo và blockchain, cho phép các nhà phát triển xây dựng các ứng dụng hoàn toàn không tin cậy, phi tập trung được trang bị bởi học máy có thể xác minh. Thông qua cơ sở hạ tầng của mình, ORA mang lại suy luận trí tuệ nhân tạo, tạo nội dung và tính toán phức tạp trực tiếp trên chuỗi, loại bỏ sự phụ thuộc vào API ngoại chuỗi hoặc tính toán tập trung. Điểm đột phá cốt lõi của ORA nằm ở việc kết hợp thực thi trí tuệ nhân tạo với chứng minh mật mã, tạo ra các đường ống trí tuệ nhân tạo có thể lập trình được với khả năng xác minh nhúng.
Công nghệ cho phép bất kỳ nhà phát triển nào xây dựng ứng dụng mà đầu ra của trí tuệ nhân tạo—cho dù đó là phản hồi của mô hình ngôn ngữ, một hình ảnh được tạo ra, hoặc một tuyên bố được kiểm chứng—có thể được nhúng vào hợp đồng thông minh với khả năng kiểm toán và đảm bảo tính chính xác.
Onchain AI Oracle (OAO)
Onchain AI Oracle (OAO) là sản phẩm mũi nhọn của ORA. Nó cho phép hợp đồng thông minh yêu cầu, nhận và thực hiện kết quả của các suy luận trí tuệ nhân tạo chạy ngoại chuỗi - nhưng được xác minh và giải quyết trên chuỗi. Nhà phát triển có thể gọi một công việc suy luận trí tuệ nhân tạo qua mạng lưới opML của ORA. Kết quả được trả lại thông qua một hàm gọi lại trong hợp đồng của người dùng, tạo ra ứng dụng trên chuỗi với trí tuệ nhân tạo và hoàn toàn tự động.
OAO hỗ trợ nhiều mô hình lớn - như LLaMA3, Stable Diffusion, OpenLM Chat/Score - chạy thông qua cơ sở hạ tầng có thể xác minh. Nhà phát triển có thể tích hợp OAO trên bất kỳ chuỗi tương thích EVM nào, và các hợp đồng thông minh được xây sẵn như Prompt và SimplePrompt cho phép tạo mẫu nhanh với tối ưu hóa gas trong tâm trí.
opML và Quy trình Xác minh
Hệ thống học máy lạc quan của ORA (opML) là nguồn năng lượng cho lớp xác minh của nó. Khi một công việc suy luận được khởi đầu, kết quả được đăng trên chuỗi với một giai đoạn thách thức. Trong thời gian này, các trình xác minh opML có thể xác minh kết quả, và nếu sai, nộp một bằng chứng gian lận. Kết quả đúng sẽ thay thế kết quả bị thách thức. Điều này đảm bảo rằng đầu ra trí tuệ nhân tạo được nhúng vào hợp đồng thông minh có thể xác minh, chống kiểm duyệt và an toàn về mặt kinh tế.
Cách tiếp cận lạc quan này cân bằng hiệu suất và phi tập trung. Không giống như zkML, có thể yêu cầu tính toán nặng trước, opML khiến việc hành vi không trung thực thành không hợp lý kinh tế để thành công - đặc biệt khi mạng xác minh mở rộng.
Phát triển tích hợp
Nhà phát triển tương tác với OAO thông qua giao diện modul được tài liệu tốt. Để tích hợp AI vào một hợp đồng thông minh, một nhà phát triển kế thừa AIOracleCallbackReceiver và thực hiện hàm aiOracleCallback() để nhận kết quả. Sau đó, họ có thể gọi oracle để khởi động suy luận bằng cách sử dụng ID mô hình, dữ liệu đầu vào và địa chỉ gọi lại.
Hiện tại có bốn mô hình được triển khai trên Arbitrum, và việc tích hợp có thể đơn giản như việc sử dụng các mẫu Prompt của ORA. Cơ sở hạ tầng cũng hỗ trợ các trường hợp sử dụng nâng cao hơn thông qua bố trí tính toán do Lilith điều phối, giúp tăng tốc quá trình suy luận và khả năng xử lý công việc có lưu lượng cao.
Initial Model Offering (IMO)
ORA đã tạo ra khuôn khổ Initial Model Offering (IMO) để phi tập trung hóa sở hữu, doanh thu và quản trị mô hình trí tuệ nhân tạo. IMOs mã hóa các mô hình trí tuệ nhân tạo thông qua cấu trúc dual-token:
Bằng cách kích hoạt quản trị và tiền tệ dựa trên token, các IMOs tài trợ cho việc phát triển mã nguồn mở đồng thời đảm bảo hạ tầng AI không thể kiểm duyệt, có thể truy cập toàn cầu và được sở hữu chung.
Kết luận
Khi ngành dọc AI tiếp tục phát triển, nhu cầu về đầu ra AI có thể kiểm chứng ngày càng trở nên quan trọng. Rõ ràng từ những điều trên, có nhiều cách tiếp cận khác nhau để đảm bảo sự không tin cậy trong các giải pháp AI phi tập trung, bao gồm môi trường thực thi đáng tin cậy (TEE), Bằng chứng lấy mẫu (PoSP), Học máy không có kiến thức (ZKML) và Học máy lạc quan (OPML).
Các phương pháp khác nhau về nhiều mặt, cụ thể là chi phí, thời gian và mức độ bảo mật đảm bảo. Có khả năng rằng tất cả các giải pháp được đề cập ở trên sẽ được sử dụng một cách nào đó, tùy thuộc vào các trường hợp sử dụng cụ thể.
Chuyển tiếp Tiêu đề Gốc ‘AI and Verifiability’
Khi các hệ thống trí tuệ nhân tạo ngày càng tích hợp với các hệ sinh thái blockchain, việc đảm bảo tính xác thực của đầu ra trí tuệ nhân tạo trở thành một điểm mốc quan trọng để thúc đẩy sự tin cậy, minh bạch và trách nhiệm. Điều này đặc biệt quan trọng đối với các ứng dụng tài chính phi tập trung (DeFi) và xác minh nhân thân, nơi mà độ chính xác và đáng tin cậy có thể ảnh hưởng trực tiếp đến kết quả tài chính, quyết định quản trị và danh tính người dùng.
Trường hợp cho AI có thể xác minh trong các hệ thống phi tập trung
Đảm bảo quy trình ra quyết định là minh bạch và dễ hiểu. Các bên liên quan có cái nhìn sâu sắc về cách suy luận được rút ra - rất quan trọng khi quyết định ảnh hưởng đến giao dịch trên chuỗi hoặc quản trị quy mô lớn.
Theo dõi dữ liệu, tham số và kiến trúc mô hình được sử dụng để tạo ra dự đoán trí tuệ nhân tạo. Bằng việc xác định nguồn gốc, người dùng biết dữ liệu huấn luyện đến từ đâu và mô hình nào đã được sử dụng, tăng cường sự tin cậy và giảm khả năng thông tin sai lệch.
Xác nhận rằng đầu ra cuối cùng của trí tuệ nhân tạo đều chính xác và không bị thay đổi. Trong ngữ cảnh phi tập trung, điều này thường liên quan đến cơ chế chứng minh (ví dụ: chứng minh không thông tin, sự đồng thuận lấy mẫu) để đảm bảo rằng các tính toán hoặc suy luận không bị can thiệp ngoài chuỗi.
Thách thức trong tính xác minh trên chuỗi của trí tuệ nhân tạo
Mặc dù blockchain xuất sắc trong việc cung cấp sổ cái không thể thay đổi và niềm tin phân tán, nhưng tính toán AI trên chuỗi có thể rất tốn kém. Ví dụ, phép nhân ma trận cho 1000×1000 số nguyên có thể tiêu tốn hàng tỷ gas—vượt quá giới hạn gas khối hiện tại của Ethereum (Zheng và cộng sự, 2021). Do đó, hầu hết các dự án AI phải phụ thuộc vào tính toán ngoại chuỗi kèm theo xác minh trên chuỗi.
Tuy nhiên, các phương pháp ngoại chuỗi đem đến những thách thức mới:
Rủi ro tiềm ẩn: Mà không có xác minh mạnh mẽ, các bên hành động độc hại có thể gửi dữ liệu không chính xác hoặc bị thao túng.
Nhược điểm tập trung: Phụ thuộc vào oracles ngoại chuỗi hoặc máy chủ riêng có thể làm suy yếu tinh thần phi tập trung, dẫn đến kiểm duyệt hoặc điểm hỏng duy nhất.
Do đó, các giải pháp mới nổi nhằm duy trì hiệu suất cao trong khi tích hợp xác minh mật mã hoặc dựa trên mẫu, cân bằng hiệu quả và phân quyền.
EigenLayer là một giao thức restaking cho phép các người xác thực Ethereum “restake” ETH của họ để bảo vệ các dịch vụ phi tập trung bổ sung, được biết đến với tên gọi Dịch vụ Được Xác thực Một cách Chủ Động (AVS). Thay vì cần một bộ xác thực mới cho mỗi nhiệm vụ chuyên biệt (ví dụ, xác thực AI, hoạt động qua chuỗi), EigenLayer tái sử dụng mạng xác thực Ethereum mạnh mẽ và phi tập trung.
EigenLayer cải thiện bảo mật bằng cách cho phép các Dịch vụ Được Xác thực Hoạt động mới (AVS) kết nối vào bộ xác thực hiện tại của Ethereum. Bộ xác thực này đã lớn, có vốn mạnh mẽ và phân phối địa lý, cung cấp các cam kết cryptoeconomic mạnh mẽ mà không cần khởi động lại một mạng mới từ đầu.
Bằng cách kích hoạt việc restaking, EigenLayer giảm đáng kể chi phí hoạt động. Các dự án không cần nữa phải tạo và duy trì hệ sinh thái xác minh của riêng mình, từ đó giảm cả chi phí cơ sở hạ tầng và rào cản để triển khai các dịch vụ phi tập trung mới trên chuỗi.
Ngoài ra, hệ thống cung cấp tính linh hoạt cao. AVS có thể tùy chỉnh logic đồng thuận và xác thực riêng của họ trong khi vẫn kế thừa tính an toàn ở tầng cơ bản của Ethereum, khiến cho EigenLayer trở thành nền tảng lý tưởng cho các ứng dụng phi tập trung có tính module, an toàn và mở rộng được.
Hyperbolic Labs giới thiệu Proof of Sampling (PoSP), một phương pháp thay thế hiệu quả, có thể mở rộng so với zkML truyền thống hoặc chứng minh gian lận lạc quan cho việc xác thực AI. Giao thức xác thực dựa trên mẫu lấy mẫu này đảm bảo rằng người dùng của chúng tôi có thể tin tưởng vào kết quả của các mô hình đang được đào tạo và chạy trên mạng GPU phân quyền của chúng tôi. Giao thức này, được biết đến với tên Proof of Sampling (PoSP), là tiêu chuẩn vàng mới cho việc xác thực trong lĩnh vực AI.
Phát triển bởi nhóm Hyperbolic phối hợp với các nhà nghiên cứu từ Đại học UC Berkeley và Đại học Columbia, PoSP sử dụng lý thuyết trò chơi để bảo vệ hệ thống phi tập trung. Nó xác nhận một mẫu chiến lược của kết quả và thực hiện quy trình trọng tài cho các nút không trung thực để khuyến khích hành vi 100% trung thực trên toàn bộ mạng lưới.
Chứng minh của Chứng minh Tự phát (PoSP) cung cấp một số lợi ích chính: nó cho phép xác minh hiệu quả bằng cách thêm ít hơn 1% chi phí tính toán, cho phép các nút duy trì tốc độ hoạt động gần như nguyên bản. An ninh mạnh mẽ của nó đảm bảo các thành viên tham gia luôn trung thực, vì kiểm tra ngẫu nhiên khiến gian lận trở nên quá rủi ro không đáng giá. Thông qua động lực lý thuyết trò chơi, PoSP tạo ra cân bằng Nash chiến lược nguyên thủy nơi hành vi trung thực luôn là sự lựa chọn hợp lý. Cuối cùng, PoSP có khả năng mở rộng cao cho dịch vụ trí tuệ nhân tạo, có khả năng hỗ trợ khối lượng công việc trí tuệ nhân tạo phi tập trung quy mô lớn trong khi đảm bảo quá trình tính toán và suy luận hiệu suất cao vẫn có thể được xác minh và đáng tin cậy.
Kiểm Tra Ngẫu Nhiên: Một tập hợp các máy xác thực (thông qua EigenLayer) quay và kiểm tra định kỳ các tính toán AI. Việc xác minh liên tục này ngăn chặn gian lận có hệ thống.
Khuyến mãi cân bằng Nash: Hành vi độc ác là không hợp lý kinh tế đối với người xác nhận - đầu ra không trung thực hoặc không nhất quán dẫn đến các hình phạt có thể bị cắt giảm.
Tốc độ Xử lý Cao: Overhead hiệu suất thấp của PoSP làm cho nó rất phù hợp cho các trường hợp sử dụng đòi hỏi suy luận trí tuệ nhân tạo nhanh chóng và thường xuyên.
Khác với các giải pháp trí tuệ nhân tạo phi tập trung khác, khi bạn chạy suy luận trên mạng lưới phi tập trung của Hyperbolic, bạn có thể tự tin rằng bạn đang nhận được kết quả hợp lệ.
Bằng cách tích hợp PoSP vào EigenLayer, các dịch vụ trí tuệ nhân tạo phi tập trung có thể đạt được một cấu trúc an toàn, tối thiểu hóa niềm tin có thể xử lý một số lượng yêu cầu suy luận ngày càng tăng mà không cần hy sinh tính phân tán hoặc hiệu quả về chi phí.
Xác thực Ngẫu nhiên: Người xác thực được chọn ngẫu nhiên để xác minh kết quả, đảm bảo kết quả không thiên vị.
Hỗ trợ AVS có khả năng mở rộng: PoSP giảm yêu cầu tính toán, giúp EigenLayer bảo vệ dịch vụ quy mô lớn một cách hiệu quả.
Ngăn chặn gian lận: Hình phạt nghiêm ngặt làm cho sự không trung thực không đáng lợi, trong khi hành vi trung thực vẫn là chiến lược tối ưu.
“Giao thức EigenLayer kết hợp với giao thức Proof of Sampling của chúng tôi đã cách mạng hoá cách chúng tôi bảo mật các dịch vụ phi tập trung. Chúng tôi hiện cung cấp cơ sở hạ tầng có thể mở rộng, đáng tin cậy và chống gian lận với chi phí chỉ là một phần nhỏ.” - Jasper Zhang, CEO của Hyperbolic
Đọc toàn bộ bài báo về PoSP tại đây
Mạng Mira nhằm giải quyết một thách thức cơ bản trong lĩnh vực AI, đó là xu hướng của các mô hình ngôn ngữ lớn (LLMs) tạo ra thông tin không chính xác. Được thiết kế để giảm thiểu sự ảo giác và tối đa hóa độ chính xác của đầu ra mà không cần sự giám sát của con người, Mira tận dụng một mạng lưới phân cấp của các nút độc lập để xác minh đầu ra AI một cách không cần tin cậy một cách song song.
Có ba bước trong kiến trúc của Mira
Nhị phân hóa
Quá trình chia nhỏ các ‘yêu cầu’ ra.
Xác Minh Phân Tán
Các yêu cầu trên được xác minh bởi một mạng lưới các nút xác minh chạy các mô hình chuyên biệt để xác minh các yêu cầu. Việc xác minh được thực hiện dưới dạng câu hỏi nhiều lựa chọn. Các yêu cầu để xác minh được phân chia ngẫu nhiên trên các nút xác minh, điều này làm cho việc kết đồng hành khó khăn.
Chứng minh của việc xác minh
Một cơ chế thống nhất kết hợp giữa Proof-of-Work (PoW) và Proof-of-Stake (PoS) được sử dụng. Mỗi người xác minh cần đặt cược để tham gia xác minh. Phương pháp này đảm bảo rằng người xác minh thực sự đang thực hiện suy luận, thay vì chỉ làm chứng. Số cược của một người xác minh sẽ bị cắt giảm nếu đầu ra của họ được phát hiện liên tục lệch khỏi sự nhất quán.
Một khi sự đồng thuận đã được đạt được bởi mạng lưới về một đầu ra, một chứng chỉ mật mã được tạo ra và được viết vào chuỗi khối, tạo ra một hồ sơ bất biến của các sự thật đã được xác minh.
Nguồn:Bản Trắng của Mạng Mira
Quyền riêng tư là một khía cạnh quan trọng của thiết kế của Mira. Với việc các yêu cầu được chia nhỏ một cách ngẫu nhiên, không thể cho một nhà điều hành nút duy nhất tái tạo kết quả ban đầu. Ngoài ra, các phản hồi xác minh từ các bên xác minh độc lập được giữ riêng tư trước khi đạt được sự nhất trí, ngăn chặn rò rỉ thông tin.
Mira đang tìm cách xác minh nội dung ngày càng phức tạp, bao gồm mã code, dữ liệu cấu trúc và nội dung đa phương tiện. Trong tương lai, Mira cũng sẽ tái tạo nội dung không hợp lệ khi phát hiện nội dung không hợp lệ, đạt được cả sự chính xác lẫn tốc độ trong đầu ra trí tuệ nhân tạo. Cuối cùng, Mạng Mira sẽ có thể tích luỹ các sự thật được bảo đảm về mặt kinh tế, tạo ra một cơ sở dữ liệu để kiểm chứng sự thật.
Khi sử dụng mạng tăng lên - tạo ra phí cao hơn - tăng cường giải thưởng xác minh tốt hơn - thu hút thêm các nhà điều hành nút - cải thiện độ chính xác, chi phí và độ trễ trong việc xác minh câu trả lời
Atoma là một mạng lưới thực thi trí tuệ nhân tạo phi tập trung, riêng tư và có thể xác minh, hoạt động trên mạng lưới chính Sui. Kiến trúc cốt lõi bao gồm ba yếu tố: (a) lớp tính toán và; (b) lớp xác minh và; (c) lớp quyền riêng tư.
Tính toán Layer
Một mạng lưới toàn cầu của các nút thực hiện xử lý các yêu cầu suy luận. Một số lượng lớn các nút có sẵn thông qua việc làm việc với các trung tâm dữ liệu khác nhau và các thiết bị cạnh như thiết bị số cá nhân của cá nhân.
Với Atoma, trọng số mô hình có sẵn cục bộ trên các nút, tăng tốc độ suy luận khi yêu cầu được nhận. Ngoài ra, các yêu cầu nhận được được định tuyến đến nút phù hợp nhất, phù hợp với nhiệm vụ với hiệu suất và chi phí tương ứng.
Atoma tập trung vào việc tối ưu hóa hiệu suất của việc suy luận thông qua một số tính năng, bao gồm FlashAttention và Paged Attention, cả hai đều góp phần giảm thiểu chi phí tính toán.
Verification Layer
Sự toàn vẹn tính toán được xác minh thông qua sự nhất trí lấy mẫu. Đây là quá trình mà các nút được chọn ngẫu nhiên để chạy suy luận và tạo ra một băm mật mã của kết quả. Nếu tất cả các băm được tạo ra bởi bộ các nút được chọn khớp nhau, kết quả suy luận được xác minh. Nếu có sự không nhất quán giữa các băm được tạo ra, mạng sẽ tìm kiếm nút không trung thực, và sẽ bị phạt bằng cách cắt giảm cổ phần của nó.
Cơ hội của một kẻ tấn công độc hại có thể kiểm soát nửa hoặc hơn nửa công suất GPU của toàn bộ mạng lưới để gian lận hệ thống rất thấp, và trở nên khó khăn hơn khi mạng lưới nút mở rộng. Số lượng nút được chọn để lấy mẫu là linh hoạt, đối với các nhiệm vụ có cổ phần cao, một tập hợp lớn hơn các nút có thể được chọn.
Lớp bảo mật
Atoma đặt mạnh về việc giữ an toàn và riêng tư cho dữ liệu người dùng, bằng cách thực hiện tính toán trong Môi trường Thực thi Đáng tin cậy (TEE). Dữ liệu được nhập bởi người dùng được mã hóa và chỉ được giải mã trong TEE. Điều này ngăn chặn bất kỳ bên thứ ba nào trên blockchain khác từ việc xem dữ liệu của người dùng. Sau khi suy luận đã được thực hiện, kết quả được mã hóa trước khi trả lại cho người dùng.
Mặc dù phương án trên đây là một giải pháp an toàn, nhưng đáng lưu ý rằng nó đi kèm với một sự đánh đổi về mặt chi phí tính toán cao hơn, có thể dẫn đến việc tăng phí cho người dùng.
Tương tự như Atoma Network ở trên, Aizel Network chọn phương pháp dựa trên TEE. Sự khác biệt ở đây là Aizel đã tích hợp Multi-Party Computation (MPC) vào luồng công việc của họ, nơi các nhiệm vụ suy luận được định tuyến đến các TEE khác nhau. Điều này nhằm mục đích phân tán mạng lưới, đảm bảo rằng suy luận vẫn có thể thực hiện ngay cả khi một TEE bị hack hoặc ngưng hoạt động.
Fortytwo champions một mô hình “suy luận tụ điểm” xây dựng xung quanh các Mô hình Nhỏ, Chuyên biệt (SLMs). Thay vì phụ thuộc vào một trí tuệ nhân tạo khổng lồ và toàn diện, mạng lưới điều phối nhiều mô hình do người đóng góp điều hành, mỗi mô hình được điều chỉnh tinh chỉnh cho các nhiệm vụ hoặc lĩnh vực cụ thể. Các mô hình này hoạt động song song—xác minh, tinh chỉnh và kiểm tra chéo các đầu ra của nhau—để cung cấp các suy luận chính xác và đáng tin cậy hơn.
Cấu trúc phi tập trung này giải quyết các vấn đề mà các mô hình lớn đơn lẻ thường gặp phải, như là bottleneck trong quá trình huấn luyện, yêu cầu phần cứng đắt đỏ, và các điểm thất bại đơn lẻ. Bằng cách phân phối trí tuệ qua nhiều mô hình nhỏ và người đóng góp, Fortytwo đảm bảo tính mở rộng và khả năng chống lỗi.
Khởi tạo Dự án Đầu tiên
Trước khi bắt đầu bất kỳ nhiệm vụ nào, người đóng góp xác định mục tiêu, ngân sách và ràng buộc. Phương pháp này điều chỉnh mọi SLM với nhiệm vụ tổng thể—dù đó là tóm tắt văn bản, phân tích mã, hoặc bất kỳ suy luận chuyên sâu nào khác.
Chuyên môn do Người đóng góp xác định
Các nhà vận hành nút cá nhân mang đến mạng lưới các mô hình được điều chỉnh tinh tế của riêng họ. Họ giữ hoàn toàn quyền kiểm soát trọng số, độ lệch, và dữ liệu độc quyền—đảm bảo sự riêng tư cho từng chủ sở hữu mô hình. Các mô hình chuyên ngành này có thể tập trung vào các lĩnh vực như phân tích cảm xúc, phân tích văn bản pháp lý, hoặc thậm chí là tạo mã cụ thể cho một lĩnh vực cụ thể.
Quyền riêng tư của Weights & Biases
Một khía cạnh quan trọng của Fortytwo là người đóng góp không cần phải chia sẻ bên trong mô hình nguyên bản. Chỉ kết quả suy luận được chia sẻ với mạng. Thiết kế này bảo toàn tài sản trí tuệ của mỗi chủ sở hữu mô hình và giúp giảm thiểu các rủi ro liên quan đến việc tiết lộ dữ liệu nhạy cảm.
Hợp tác Đa SLM
Công việc được chia thành 7-8 (hoặc nhiều hơn) SLM chuyên ngành, mỗi SLM cung cấp một góc nhìn độc đáo về lĩnh vực. Bằng cách chia nhỏ các nhiệm vụ lớn thành các vấn đề phụ nhỏ hơn, mạng lưới tận dụng hiệu quả sức mạnh của mỗi mô hình.
Hỗn hợp chuyên gia phẳng (MoE)
Thay vì xếp các chuyên gia phụ ở nhiều tầng, Fortytwo sử dụng phương pháp MoE “bằng phẳng”, trong đó mỗi mô hình xử lý dữ liệu độc lập. Thiết kế này có thể hiệu quả đặc biệt vì tránh sự phức tạp từ cổng phân cấp, giúp các chuyên gia tập trung hoàn toàn vào nhiệm vụ phụ của họ.
Phát hiện lỗi tập thể
Đánh giá đồng nghiệp đóng vai trò then chốt trong việc duy trì độ chính xác của suy luận. Khi các mô hình không đồng ý, mạng sẽ đánh dấu những khác biệt để phân tích sâu hơn. Quy trình kiểm định chéo này quan trọng trong việc phát hiện lỗi sớm và đảm bảo đầu ra chất lượng cao.
Phần cứng dành cho người tiêu dùng
Fortytwo được tối ưu hóa cho các thiết bị như Apple Silicon và GPU RTX, giảm thiểu rào cản về chi phí và mở rộng cơ sở người vận hành nút tiềm năng. Phương pháp này làm dân chủ hóa trí tuệ nhân tạo bằng cách cho phép nhiều cá nhân hơn - không chỉ là các trung tâm dữ liệu lớn - tham gia.
Cụm triển khai
Nhiều nhà vận hành nút chọn nền tảng đám mây (ví dụ: AWS) hoặc các cụm tự lưu trữ để giảm thiểu độ trễ. Các cụm được phối hợp tốt trở nên đặc biệt quý giá trong các tình huống yêu cầu thời gian cụ thể nơi ngay cả những độ trễ nhỏ cũng có thể ảnh hưởng đáng kể đến trải nghiệm người dùng.
Đang tăng sự tham gia
Hàng ngàn người tham gia đã thể hiện sự quan tâm đến việc vận hành các nút suy luận, tạo ra một mạng lưới đa dạng và phân phối. Sự mở rộng này mang đến nhiều tài nguyên tính toán trực tuyến hơn, từ đó tăng cường hiệu suất và sự linh hoạt.
Đóng góp theo mô hình giống Wikipedia
Tương tự như cách các biên tập viên Wikipedia hợp tác trên các bài viết, mỗi nhà điều hành nút có thể tăng cường hoặc điều chỉnh các mô hình chuyên sâu và chia sẻ các kỹ thuật suy luận cải thiện. Việc bảo trì và hoàn thiện theo nhóm này thúc đẩy sự đổi mới liên tục và nâng cao tổng thể thông minh của mạng lưới.
Lagrange đang ở bờ vực của việc sử dụng công nghệ Zero-Knowledge (ZK) để mang tính xác thực đến AI. Phương châm của họ - “Tương lai của AI là ZK, và tương lai của nhân loại là Lagrange” - nhấn mạnh niềm tin rằng, khi AI tiến triển về siêu trí tuệ, chúng ta phải đảm bảo sự minh bạch và niềm tin vào cách hoạt động của những mô hình này.
DeepProve: Hiệu suất cao zkML
Bằng cách loại bỏ các tương tác trí tuệ nhân tạo ‘hộp đen’, Lagrange đảm bảo người dùng không cần phải tin tưởng mù quáng vào trí tuệ nhân tạo. Trong môi trường phi tập trung nơi việc giảm thiểu sự tin cậy là rất quan trọng, sự chắc chắn mật mã về tính toàn vẹn của mô hình và độ chính xác của kết quả trở nên quan trọng.
Hơn nữa, Inference Labs hoạt động như cánh tay tập trung vào ứng dụng của Lagrange, nối liền nghiên cứu và triển khai thực tế. Trong khi Lagrange tập trung vào thiết kế mật mã và mạch cốt lõi, Inference Labs đảm bảo những đột phá này sẵn sàng cho việc sản xuất.
Integrations in the real world
Nhúng zkML vào các đường ống học máy hiện có, tập trung vào các lĩnh vực như DeFi, trò chơi, chăm sóc sức khỏe và nguồn gốc chuỗi cung ứng.
Đối tác với các nhà lãnh đạo ngành để kiểm tra tính năng Lagrange mới dưới ràng buộc thực tế (ví dụ, số lượng tham số lớn, yêu cầu độ trễ nghiêm ngặt).
EZKL là một hệ thống mã nguồn mở để tạo ra trí tuệ nhân tạo và phân tích có thể xác minh bằng bằng chứng không tiết lộ (ZKPs). Nó cho phép các nhà phát triển chứng minh rằng các mô hình trí tuệ nhân tạo đã được thực thi đúng cách mà không tiết lộ dữ liệu nhạy cảm hoặc chi tiết mô hình độc quyền. Lấy cảm hứng từ các hệ thống như Face ID của Apple, EZKL mở rộng tính bảo mật không thể xâm phạm của mô hình cho bất kỳ mô hình nào trên bất kỳ thiết bị nào mà không phụ thuộc vào phần cứng chuyên dụng như TEEs.
Cơ sở hạ tầng chứng minh không thông báo
EZKL tự động hóa toàn bộ vòng đời ZKP - từ việc biên dịch mô hình đến việc tạo ra và xác minh chứng minh. Người dùng cung cấp các mô hình AI dưới định dạng ONNX, sau đó EZKL biên dịch chúng thành mạch thân thiện với ZK bằng cách sử dụng phiên bản tối ưu hóa của hệ thống chứng minh Halo2. Hệ thống sau đó tạo ra các chứng minh mật mã về việc thực thi mô hình đúng mà có thể được xác minh trên bất kỳ thiết bị nào.
Quá trình mật mã hóa này cho phép niềm tin phi tập trung trong các ứng dụng trí tuệ nhân tạo quan trọng, như ra quyết định tài chính, xác thực sinh trắc học, và xác nhận suy luận thời gian thực.
Collaborative SNARKs (Cosnarks)
EZKL gần đây đã giới thiệu Collaborative SNARKs (cosnarks), cho phép hai bên—như chủ sở hữu mô hình và chủ sở hữu dữ liệu—cùng tạo ra một bằng chứng ZK mà không có bên nào tiết lộ tài sản bí mật của họ. Khác với các hệ thống chứng minh MPC được ủy quyền, cosnarks loại bỏ các giả định tin cậy bổ sung bằng cách giới hạn tính toán chỉ đến các bên liên quan.
Sự tiến bộ này cho phép các trường hợp sử dụng như việc xác định tín dụng riêng, chiến lược giao dịch bí mật, và xác thực danh tính không biết. Việc triển khai tận dụng thư viện MPC tối ưu hóa 2PC của Renegade và được tích hợp trực tiếp vào Lilith, lớp điều phối đám mây của EZKL.
Hỗ trợ mô hình và linh hoạt
EZKL hỗ trợ một loạt các kiến trúc AI/ML, bao gồm CNNs, RNNs, bộ biến áp kiểu GPT, cây quyết định và các mô hình lan truyền ổn định. Bất kỳ mô hình nào tương thích với tiêu chuẩn ONNX đều có thể được chuyển đổi thành mạch ZK.
Bằng cách trừu tượng hóa logic mô hình thành mạch toán học, EZKL cho phép suy luận bảo vệ quyền riêng tư trên các ngành như tài chính, chăm sóc sức khỏe và danh tính. Logic dựa trên cây, cơ chế chú ý và các phép toán ma trận quy mô lớn đều được hỗ trợ trong framework được Halo2 hỗ trợ.
Kinh nghiệm phát triển
EZKL ưu tiên tính sẵn sàng tiếp cận và trừu tượng hóa sự phức tạp. Các nhà phát triển không cần kiến thức mật mã trước đó, kinh nghiệm thiết kế mạch, hoặc kỹ năng DevOps tiên tiến. Hệ thống cung cấp liên kết trong CLI, Python, JavaScript, và Rust—giúp dễ dàng nhúng luồng công việc ZK vào các đường ống ML hiện có.
Tự động tạo ràng buộc, các lệnh chứng minh đơn giản, và tích hợp mượt mà với các công cụ điều phối cho phép các nhà phát triển tập trung hoàn toàn vào logic ứng dụng.
ORA là một giao thức máy trung gian không phụ thuộc vào chuỗi mạng nào, nó nối liền trí tuệ nhân tạo và blockchain, cho phép các nhà phát triển xây dựng các ứng dụng hoàn toàn không tin cậy, phi tập trung được trang bị bởi học máy có thể xác minh. Thông qua cơ sở hạ tầng của mình, ORA mang lại suy luận trí tuệ nhân tạo, tạo nội dung và tính toán phức tạp trực tiếp trên chuỗi, loại bỏ sự phụ thuộc vào API ngoại chuỗi hoặc tính toán tập trung. Điểm đột phá cốt lõi của ORA nằm ở việc kết hợp thực thi trí tuệ nhân tạo với chứng minh mật mã, tạo ra các đường ống trí tuệ nhân tạo có thể lập trình được với khả năng xác minh nhúng.
Công nghệ cho phép bất kỳ nhà phát triển nào xây dựng ứng dụng mà đầu ra của trí tuệ nhân tạo—cho dù đó là phản hồi của mô hình ngôn ngữ, một hình ảnh được tạo ra, hoặc một tuyên bố được kiểm chứng—có thể được nhúng vào hợp đồng thông minh với khả năng kiểm toán và đảm bảo tính chính xác.
Onchain AI Oracle (OAO)
Onchain AI Oracle (OAO) là sản phẩm mũi nhọn của ORA. Nó cho phép hợp đồng thông minh yêu cầu, nhận và thực hiện kết quả của các suy luận trí tuệ nhân tạo chạy ngoại chuỗi - nhưng được xác minh và giải quyết trên chuỗi. Nhà phát triển có thể gọi một công việc suy luận trí tuệ nhân tạo qua mạng lưới opML của ORA. Kết quả được trả lại thông qua một hàm gọi lại trong hợp đồng của người dùng, tạo ra ứng dụng trên chuỗi với trí tuệ nhân tạo và hoàn toàn tự động.
OAO hỗ trợ nhiều mô hình lớn - như LLaMA3, Stable Diffusion, OpenLM Chat/Score - chạy thông qua cơ sở hạ tầng có thể xác minh. Nhà phát triển có thể tích hợp OAO trên bất kỳ chuỗi tương thích EVM nào, và các hợp đồng thông minh được xây sẵn như Prompt và SimplePrompt cho phép tạo mẫu nhanh với tối ưu hóa gas trong tâm trí.
opML và Quy trình Xác minh
Hệ thống học máy lạc quan của ORA (opML) là nguồn năng lượng cho lớp xác minh của nó. Khi một công việc suy luận được khởi đầu, kết quả được đăng trên chuỗi với một giai đoạn thách thức. Trong thời gian này, các trình xác minh opML có thể xác minh kết quả, và nếu sai, nộp một bằng chứng gian lận. Kết quả đúng sẽ thay thế kết quả bị thách thức. Điều này đảm bảo rằng đầu ra trí tuệ nhân tạo được nhúng vào hợp đồng thông minh có thể xác minh, chống kiểm duyệt và an toàn về mặt kinh tế.
Cách tiếp cận lạc quan này cân bằng hiệu suất và phi tập trung. Không giống như zkML, có thể yêu cầu tính toán nặng trước, opML khiến việc hành vi không trung thực thành không hợp lý kinh tế để thành công - đặc biệt khi mạng xác minh mở rộng.
Phát triển tích hợp
Nhà phát triển tương tác với OAO thông qua giao diện modul được tài liệu tốt. Để tích hợp AI vào một hợp đồng thông minh, một nhà phát triển kế thừa AIOracleCallbackReceiver và thực hiện hàm aiOracleCallback() để nhận kết quả. Sau đó, họ có thể gọi oracle để khởi động suy luận bằng cách sử dụng ID mô hình, dữ liệu đầu vào và địa chỉ gọi lại.
Hiện tại có bốn mô hình được triển khai trên Arbitrum, và việc tích hợp có thể đơn giản như việc sử dụng các mẫu Prompt của ORA. Cơ sở hạ tầng cũng hỗ trợ các trường hợp sử dụng nâng cao hơn thông qua bố trí tính toán do Lilith điều phối, giúp tăng tốc quá trình suy luận và khả năng xử lý công việc có lưu lượng cao.
Initial Model Offering (IMO)
ORA đã tạo ra khuôn khổ Initial Model Offering (IMO) để phi tập trung hóa sở hữu, doanh thu và quản trị mô hình trí tuệ nhân tạo. IMOs mã hóa các mô hình trí tuệ nhân tạo thông qua cấu trúc dual-token:
Bằng cách kích hoạt quản trị và tiền tệ dựa trên token, các IMOs tài trợ cho việc phát triển mã nguồn mở đồng thời đảm bảo hạ tầng AI không thể kiểm duyệt, có thể truy cập toàn cầu và được sở hữu chung.
Kết luận
Khi ngành dọc AI tiếp tục phát triển, nhu cầu về đầu ra AI có thể kiểm chứng ngày càng trở nên quan trọng. Rõ ràng từ những điều trên, có nhiều cách tiếp cận khác nhau để đảm bảo sự không tin cậy trong các giải pháp AI phi tập trung, bao gồm môi trường thực thi đáng tin cậy (TEE), Bằng chứng lấy mẫu (PoSP), Học máy không có kiến thức (ZKML) và Học máy lạc quan (OPML).
Các phương pháp khác nhau về nhiều mặt, cụ thể là chi phí, thời gian và mức độ bảo mật đảm bảo. Có khả năng rằng tất cả các giải pháp được đề cập ở trên sẽ được sử dụng một cách nào đó, tùy thuộc vào các trường hợp sử dụng cụ thể.