Teruskan Judul Asli ‘AI and Verifiability’
Saat sistem AI semakin terintegrasi dengan ekosistem blockchain, memastikan verifikasi output AI menjadi salah satu landasan utama untuk membangun kepercayaan, transparansi, dan akuntabilitas. Hal ini sangat penting terutama untuk keuangan terdesentralisasi (DeFi) dan aplikasi bukti kepribadian, di mana akurasi dan kehandalan dapat langsung memengaruhi hasil keuangan, keputusan tata kelola, dan identitas pengguna.
Argumen untuk Kecerdasan Buatan yang Dapat Diverifikasi dalam Sistem Terdesentralisasi
Memastikan bahwa proses pengambilan keputusan transparan dan dapat dimengerti. Pihak-pihak terkait memperoleh wawasan tentang bagaimana kesimpulan dihasilkan - penting ketika keputusan mempengaruhi transaksi on-chain atau tata kelola skala besar.
Melacak data, parameter, dan arsitektur model yang digunakan untuk menghasilkan prediksi AI. Dengan menetapkan provenans, pengguna mengetahui dari mana data pelatihan berasal dan model mana yang digunakan, meningkatkan kepercayaan dan mengurangi kemungkinan disinformasi.
Mengonfirmasi bahwa output AI akhir adalah akurat dan tidak diubah. Dalam konteks terdesentralisasi, ini sering melibatkan mekanisme bukti (misalnya, bukti pengetahuan nol, konsensus sampel) untuk memastikan bahwa komputasi atau inferensi tidak telah dimanipulasi di luar rantai.
Tantangan dalam Verifikasi AI On-Chain
Meskipun blockchain sangat baik dalam menyediakan buku besar yang tidak dapat diubah dan kepercayaan terdistribusi, komputasi AI on-chain bisa sangat mahal. Sebagai contoh, perkalian matriks untuk 1000×1000 bilangan bulat bisa menghabiskan miliaran gas—melebihi batas gas blok saat ini Ethereum (Zheng dkk., 2021). Akibatnya, sebagian besar proyek AI bergantung pada komputasi off-chain dengan verifikasi on-chain.
Namun, pendekatan di luar rantai memperkenalkan tantangan baru:
Potensi Penipuan: Tanpa verifikasi yang kuat, pelaku jahat dapat mengirimkan data yang salah atau dimanipulasi.
Titik Lemah Terpusat: Bergantung pada orakel di luar rantai atau server pribadi dapat merusak ethos terdesentralisasi, menyebabkan sensor atau titik-titik kegagalan tunggal.
Oleh karena itu, solusi-solusi yang sedang muncul bertujuan untuk mempertahankan kinerja tinggi sambil menggabungkan verifikasi berbasis kriptografi atau sampling, seimbang antara efisiensi dan desentralisasi.
EigenLayer adalah protokol restaking yang memungkinkan validator Ethereum untuk "restake" ETH mereka untuk mengamankan layanan terdesentralisasi tambahan, yang dikenal sebagai Layanan Yang Divalidasi Secara Aktif (AVS). Alih-alih memerlukan setiap validator baru untuk setiap tugas khusus (misalnya, validasi AI, operasi lintas-rantai), EigenLayer menggunakan kembali jaringan validator Ethereum yang tangguh dan terdesentralisasi.
EigenLayer meningkatkan keamanan dengan memungkinkan Layanan yang Divalidasi Secara Aktif (AVS) baru untuk mengakses set validator Ethereum yang sudah ada. Set validator ini sudah besar, terkapitalisasi dengan baik, dan didistribusikan secara geografis, menawarkan jaminan kriptoekonomi yang kuat tanpa perlu memulai jaringan baru dari awal.
Dengan mengaktifkan restaking, EigenLayer secara signifikan mengurangi overhead operasional. Proyek tidak lagi perlu membuat dan memelihara ekosistem validator mereka sendiri, yang menurunkan biaya infrastruktur dan hambatan untuk meluncurkan layanan terdesentralisasi baru di rantai.
Selain itu, sistem menawarkan fleksibilitas tinggi. AVS dapat menyesuaikan konsensus dan logika validasi mereka sendiri sambil tetap mewarisi keamanan lapisan dasar Ethereum, menjadikan EigenLayer sebagai dasar ideal untuk aplikasi terdesentralisasi yang modular, aman, dan dapat diskalakan.
Hyperbolic Labs memperkenalkan Proof of Sampling (PoSP), sebuah alternatif yang efisien dan dapat diskalakan untuk validasi Kecerdasan Buatan (AI) dibandingkan dengan zkML tradisional atau bukti penipuan optimis. Protokol verifikasi berbasis sampel yang baru ini memastikan bahwa pengguna kami dapat mempercayai hasil dari model-model mereka yang dilatih dan dijalankan di jaringan GPU terdesentralisasi kami. Protokol ini, yang dikenal sebagai Proof of Sampling (PoSP), adalah standar emas baru untuk verifikasi dalam AI.
Dikembangkan oleh tim Hyperbolic bekerja sama dengan peneliti dari UC Berkeley dan Columbia University, PoSP menggunakan teori permainan untuk mengamankan sistem terdesentralisasi. Ini memvalidasi sampel strategis hasil dan menerapkan proses arbitrase untuk node-node yang tidak jujur untuk mendorong perilaku 100% jujur di seluruh jaringan.
Proof of Spontaneous Proofs (PoSP) menawarkan beberapa keuntungan kunci: itu memungkinkan verifikasi yang efisien dengan menambahkan kurang dari 1% beban komputasi, memungkinkan node untuk mempertahankan kecepatan operasi hampir native. Keamanan yang kokoh menjamin peserta tetap jujur, karena pemeriksaan acak membuat penipuan terlalu berisiko untuk layak dilakukan. Melalui insentif teori permainan, PoSP menciptakan Kesetimbangan Nash Strategi Murni di mana perilaku jujur selalu merupakan pilihan rasional. Akhirnya, PoSP sangat dapat diskalakan untuk layanan AI, mampu mendukung beban kerja AI terdesentralisasi dalam skala besar sambil memastikan proses komputasi dan inferensi kinerja tinggi tetap dapat diverifikasi dan dipercaya.
Audit Acak: Sebuah set validator yang berputar (melalui EigenLayer) secara teratur mengambil sampel dan memeriksa komputasi AI. Verifikasi terus menerus ini mencegah kecurangan sistematis.
Insentif Kesetimbangan Nash: Perilaku jahat secara ekonomi tidak rasional bagi validator—output yang tidak jujur atau inkonsisten mengakibatkan hukuman yang dapat dipotong.
Throughput Tinggi: Beban kinerja rendah PoSP membuatnya cocok untuk kasus penggunaan yang memerlukan inferensi AI cepat dan sering.
Berbeda dengan solusi AI terdesentralisasi lainnya, ketika Anda menjalankan inferensi pada jaringan terdesentralisasi Hyperbolic, Anda dapat yakin bahwa Anda menerima hasil yang valid.
Dengan mengintegrasikan PoSP ke dalam EigenLayer, layanan AI terdesentralisasi dapat mencapai kerangka kerja yang aman dan minim kepercayaan yang dapat menangani jumlah permintaan inferensi yang semakin bertambah tanpa mengorbankan desentralisasi atau efisiensi biaya.
Validasi Acak: Validator dipilih secara acak untuk memverifikasi output, memastikan hasil yang tidak bias.
Dukungan AVS yang Dapat Diskalakan: PoSP mengurangi tuntutan komputasi, memungkinkan EigenLayer untuk mengamankan layanan skala besar dengan efisien.
Pencegahan Penipuan: Hukuman yang ketat membuat ketidakjujuran tidak menguntungkan, sementara perilaku jujur tetap menjadi strategi optimal.
Protokol EigenLayer yang digabungkan dengan protokol Proof of Sampling kami secara mendasar mengubah cara kita mengamankan layanan terdesentralisasi. Kami sekarang menawarkan infrastruktur yang dapat diskalakan, dapat diandalkan, dan tahan terhadap kecurangan dengan biaya yang jauh lebih murah." - Jasper Zhang, CEO Hyperbolic
Baca selengkapnya tentang PoSP di sini
Jaringan Mira bertujuan untuk mengatasi tantangan mendasar dalam AI, yaitu kecenderungan model bahasa besar (LLMs) menghasilkan informasi yang salah. Dirancang untuk mengurangi halusinasi dan memaksimalkan akurasi output tanpa pengawasan manusia, Mira memanfaatkan jaringan terdesentralisasi dari node-node independen untuk memverifikasi output AI secara tidak dapat dipercaya secara bersamaan.
Ada tiga langkah dalam arsitektur Mira
Binerisasi
Proses memecah output menjadi 'klaim' yang lebih sederhana.
Verifikasi Terdistribusi
Klaim di atas diverifikasi oleh jaringan node verifikator yang menjalankan model khusus untuk memverifikasi klaim tersebut. Verifikasi dilakukan dalam format pertanyaan pilihan ganda. Klaim untuk diverifikasi secara acak dipecah menjadi beberapa bagian di antara verifikator, yang membuatnya sulit untuk berkolusi.
Proof-of-Verifikasi
Sebuah mekanisme konsensus hibrid yang menggabungkan Proof-of-Work (PoW) dan Proof-of-Stake (PoS) digunakan. Setiap verifier perlu melakukan staking untuk berpartisipasi dalam verifikasi. Pendekatan ini memastikan bahwa verifier benar-benar melakukan inferensi, bukan hanya memberikan kesaksian. Staking dari seorang verifier akan dipotong jika output mereka terus-menerus ditemukan berbeda dari konsensus.
Setelah konsensus tercapai oleh jaringan pada suatu output, sertifikat kriptografis dibuat dan ditulis ke blockchain, menciptakan catatan yang tidak dapat diubah dari fakta-fakta yang diverifikasi.
Sumber:Whitepaper Jaringan Mira
Privasi adalah aspek kunci desain Mira. Mengingat klaim-klaim tersebut di-sharded secara acak, tidak mungkin bagi satu operator node tunggal untuk merekonstruksi output asli. Selain itu, respons verifikasi dari verifier independen dijaga kerahasiaannya sebelum konsensus, mencegah kebocoran informasi.
Mira berencana untuk memverifikasi konten yang semakin kompleks, yang mencakup kode, data terstruktur, dan konten multimedia. Di masa depan, Mira juga akan merekonstruksi konten yang tidak valid ketika konten tidak valid terdeteksi, mencapai akurasi dan kecepatan dalam output AI. Pada akhirnya, Jaringan Mira akan dapat mengumpulkan fakta yang aman secara ekonomi, menciptakan database untuk pemeriksaan fakta.
Saat penggunaan jaringan meningkat - generasi biaya yang lebih tinggi - penghargaan verifikasi yang lebih baik - menarik lebih banyak operator node - akurasi, biaya, dan laten yang lebih baik dalam verifikasi jawaban
Atoma adalah jaringan eksekusi AI terdesentralisasi, pribadi, dan dapat diverifikasi, live di mainnet Sui. Arsitektur inti terdiri dari tiga elemen: (a) lapisan komputasi dan; (b) lapisan verifikasi dan; (c) lapisan privasi.
Lapisan Komputasi
Sebuah jaringan global dari node eksekusi yang memproses permintaan inferensi. Sejumlah besar node tersedia dengan bekerja dengan berbagai pusat data, dan perangkat tepi seperti perangkat digital individu.
Dengan Atoma, bobot model tersedia secara lokal di node, meningkatkan kecepatan inferensi ketika permintaan diterima. Selain itu, permintaan yang diterima diarahkan ke node yang paling cocok, sesuai dengan tugas yang sesuai dengan kinerja dan biaya yang sesuai.
Atoma berfokus pada mengoptimalkan efisiensi menjalankan inferensi melalui beberapa fitur, termasuk FlashAttention dan Paged Attention, yang keduanya berkontribusi pada pengurangan overhead komputasi.
Lapisan Verifikasi
Integritas komputasi diverifikasi melalui konsensus sampel. Ini adalah proses di mana node dipilih secara acak untuk menjalankan inferensi, dan menghasilkan hash kriptografis dari output. Jika semua hash yang dihasilkan oleh kumpulan node terpilih cocok, output inferensi diverifikasi. Jika ada ketidaksesuaian di antara hash yang dihasilkan, jaringan akan mencari node yang tidak jujur, yang akan dikenai hukuman melalui pemotongan sahamnya.
Peluang bagi penyerang jahat untuk mengendalikan setengah atau lebih daya GPU jaringan keseluruhan untuk memanipulasi sistem sangat rendah, dan semakin sulit seiring dengan meningkatnya skala jaringan node. Jumlah node yang dipilih untuk sampling bersifat fleksibel, untuk tugas dengan taruhan yang lebih tinggi, kumpulan node yang lebih besar dapat dipilih.
Lapisan Privasi
Atoma menempatkan penekanan pada menjaga data pengguna tetap aman dan pribadi, dengan menjalankan perhitungan dalam Lingkungan Eksekusi Terpercaya (TEE). Data yang dimasukkan oleh pengguna dienkripsi, dan hanya di-dekripsi di TEE. Hal ini mencegah pihak lain di blockchain dari melihat data pengguna. Setelah inferensi dijalankan, output dienkripsi sebelum dikembalikan kepada pengguna.
Meskipun di atas merupakan solusi yang aman, perlu dicatat bahwa hal itu datang dengan sebuah kompromi dalam hal overhead komputasi yang lebih tinggi, yang mungkin mengakibatkan biaya yang lebih tinggi bagi pengguna.
Sama seperti Atoma Network di atas, Aizel Network memilih pendekatan berbasis TEE. Perbedaannya di sini adalah bahwa Aizel telah mengintegrasikan Multi-Party Computation (MPC) ke dalam alur kerja mereka, di mana tugas-tugas inferensi diarahkan ke berbagai TEE. Ini bertujuan untuk mendekentralisasi jaringan, memastikan bahwa inferensi masih memungkinkan bahkan ketika satu TEE diretas atau turun.
Fortytwo memperjuangkan model “swarm inference” yang dibangun di sekitar Small, Specialized Models (SLMs). Alih-alih bergantung pada satu AI monolitik besar, jaringan mengatur beberapa model yang dijalankan oleh kontributor, masing-masing disesuaikan untuk tugas atau domain tertentu. Model-model ini bekerja secara paralel—memverifikasi, menyempurnakan, dan saling memeriksa keluaran masing-masing—untuk memberikan inferensi yang lebih akurat dan terpercaya.
Struktur terdesentralisasi ini menangani masalah-masalah yang sering dihadapi oleh model-model besar tunggal, seperti bottleneck dalam pelatihan, persyaratan perangkat keras yang mahal, dan titik-titik kegagalan tunggal. Dengan mendistribusikan kecerdasan di sejumlah model-model kecil dan kontributor, Fortytwo memastikan skalabilitas dan toleransi kesalahan.
Inisialisasi Berdasarkan Niat
Sebelum tugas dimulai, kontributor menentukan tujuan, anggaran, dan kendala. Pendekatan ini menyelaraskan setiap SLM dengan misi keseluruhan—baik itu merangkum teks, menganalisis kode, atau inferensi khusus lainnya.
Spesialisasi yang Didefinisikan oleh Kontributor
Operator node individu membawa model yang disesuaikan sendiri ke jaringan. Mereka tetap memiliki kendali penuh atas bobot, bias, dan data properti—memastikan privasi untuk setiap pemilik model. Model khusus ini dapat fokus pada bidang seperti analisis sentimen, analisis teks hukum, atau bahkan generasi kode yang spesifik untuk domain.
Privasi Berat & Bias
Aspek penting dari Fortytwo adalah bahwa kontributor tidak perlu berbagi internal model mentah. Hanya hasil inferensi yang dibagikan dengan jaringan. Desain ini menjaga kekayaan intelektual dari setiap pemilik model dan membantu mengurangi risiko yang terkait dengan paparan data sensitif.
Kolaborasi Multi-SLM
Tugas-tugas dibagi di antara 7–8 (atau lebih) SLM khusus, masing-masing memberikan perspektif domain yang unik. Dengan membagi tugas-tugas besar menjadi sub-problem yang lebih kecil, jaringan memanfaatkan kekuatan masing-masing model dengan lebih efektif.
Campuran Datar Mixture-of-Experts (MoE)
Daripada menumpuk sub-expert dalam beberapa lapisan, Fortytwo menggunakan pendekatan MoE yang “datar”, di mana setiap model memproses data secara independen. Desain ini dapat menjadi sangat efisien karena menghindari kompleksitas dari gerbang hierarkis, membiarkan para ahli fokus sepenuhnya pada tugas sub mereka masing-masing.
Deteksi Kesalahan Bersama
Evaluasi sejawat memainkan peran penting dalam menjaga akurasi inferensi. Ketika model tidak sependapat, jaringan menandai perbedaan untuk analisis yang lebih mendalam. Proses cross-verifikasi ini penting untuk mendeteksi kesalahan lebih awal dan memastikan output berkualitas tinggi.
Hardware Tingkat Konsumen
Fortytwo dioptimalkan untuk perangkat seperti Apple Silicon dan GPU RTX, menurunkan hambatan biaya dan memperluas basis operator node potensial. Pendekatan ini mendemokratisasi KI dengan memungkinkan lebih banyak individu—dan bukan hanya pusat data besar—untuk berpartisipasi.
Klaster Penempatan
Banyak operator node memilih platform cloud (misalnya, AWS) atau cluster self-hosted untuk meminimalkan laten. Cluster yang terkoordinasi dengan baik menjadi sangat berharga dalam skenario yang membutuhkan waktu di mana bahkan keterlambatan kecil pun dapat berdampak signifikan terhadap pengalaman pengguna.
Partisipasi yang Berkembang
Ribuan peserta telah menunjukkan minat untuk menjalankan node inferensi, menciptakan jaringan yang beragam dan terdistribusi. Perluasan ini membawa lebih banyak sumber daya komputasi online, yang lebih lanjut meningkatkan throughput dan ketahanan.
Kontribusi Model Seperti Wikipedia
Sama seperti editor Wikipedia yang bekerja sama pada artikel, setiap operator node dapat meningkatkan atau menyempurnakan model-model khusus dan berbagi teknik inferensi yang ditingkatkan. Pemeliharaan dan penyempurnaan kolektif ini mendorong inovasi yang berkelanjutan dan meningkatkan kecerdasan keseluruhan jaringan.
Lagrange berada di garis terdepan dalam menggunakan teknologi Zero-Knowledge (ZK) untuk membawa verifikasi ke kecerdasan buatan. Motto mereka—“Masa depan kecerdasan buatan adalah ZK, dan masa depan umat manusia adalah Lagrange”—menggarisbawahi keyakinan bahwa, ketika kecerdasan buatan berkembang menuju superintelejensi, kita harus memastikan transparansi dan kepercayaan dalam cara model-model ini berfungsi.
DeepProve: kinerja tinggi zkML
Dengan menghapus interaksi AI "kotak hitam", Lagrange memastikan bahwa pengguna tidak perlu mempercayai AI secara membabi buta. Dalam lingkungan terdesentralisasi di mana minimalisasi kepercayaan adalah yang terpenting, kepastian kriptografi tentang integritas model dan kebenaran output menjadi penting.
Selain itu, Inference Labs beroperasi sebagai lengan yang berfokus pada aplikasi dari Lagrange, menjembatani penelitian dan implementasi praktis. Sementara Lagrange berkonsentrasi pada desain kriptografis inti dan sirkuit, Inference Labs memastikan terobosan ini siap diproduksi.
Integrasi Dunia Nyata
Menanamkan zkML ke dalam pipa pemrosesan pembelajaran mesin yang sudah ada, berfokus pada sektor-sektor seperti DeFi, gaming, kesehatan, dan asal-usul rantai pasokan.
Mitra dengan para pemimpin industri untuk menguji fitur-fitur baru Lagrange di bawah kendala dunia nyata (misalnya, jumlah parameter yang besar, persyaratan latency yang ketat).
EZKL adalah sistem open-source untuk membuat kecerdasan buatan (AI) dan analitika yang dapat diverifikasi menggunakan bukti pengetahuan nol (ZKP). Ini memungkinkan pengembang untuk membuktikan bahwa model AI dieksekusi dengan benar tanpa mengungkap data sensitif atau rincian model propietary. Terinspirasi oleh sistem seperti Face ID milik Apple, EZKL memperluas keamanan model yang tidak dapat dikompromikan ke model apa pun pada perangkat apa pun—tanpa bergantung pada perangkat keras khusus seperti TEE.
Infrastruktur Bukti Pengetahuan Nol
EZKL mengotomatisasi seluruh siklus hidup ZKP—dari kompilasi model hingga generasi dan verifikasi bukti. Pengguna menyediakan model AI dalam format ONNX, yang kemudian dikompilasi oleh EZKL ke dalam sirkuit ramah ZK menggunakan versi dioptimalkan dari sistem pembuktian Halo2. Sistem kemudian menghasilkan bukti kriptografis dari eksekusi model yang benar yang dapat diverifikasi di setiap perangkat.
Proses kriptografi ini memungkinkan kepercayaan terdesentralisasi dalam aplikasi AI beresiko tinggi, seperti pengambilan keputusan keuangan, otentikasi biometrik, dan validasi inferensi real-time.
SNARKs Kolaboratif (Cosnarks)
EZKL baru-baru ini memperkenalkan Collaborative SNARKs (cosnarks), memungkinkan dua pihak—seperti pemilik model dan pemilik data—untuk bersama-sama menghasilkan bukti ZK tanpa salah satu pihak mengungkapkan aset rahasia mereka. Berbeda dengan sistem pembuktian MPC yang didelegasikan, cosnarks menghilangkan asumsi kepercayaan tambahan dengan membatasi komputasi hanya pada pihak yang terlibat.
Kemajuan ini memungkinkan kasus penggunaan seperti penilaian kredit pribadi, strategi perdagangan rahasia, dan verifikasi identitas zero-knowledge. Implementasinya memanfaatkan perpustakaan MPC yang dioptimalkan 2PC milik Renegade dan terintegrasi langsung ke dalam Lilith, lapisan orkestrasi awan EZKL.
Dukungan Model dan Fleksibilitas
EZKL mendukung berbagai arsitektur AI/ML, termasuk CNN, RNN, transformer gaya GPT, pohon keputusan, dan model difusi stabil. Setiap model yang kompatibel dengan standar ONNX dapat dikonversi menjadi sirkuit ZK.
Dengan mengabstraksikan logika model ke dalam sirkuit matematika, EZKL memungkinkan inferensi yang menjaga privasi di berbagai industri seperti keuangan, perawatan kesehatan, dan identitas. Logika berbasis pohon, mekanisme perhatian, dan operasi matriks berskala besar semuanya didukung dalam kerangka kerja yang didukung oleh Halo2.
Pengalaman Pengembang
EZKL memprioritaskan aksesibilitas dan abstraksi kompleksitas. Para pengembang tidak memerlukan pengetahuan kriptografis sebelumnya, pengalaman desain sirkuit, atau keterampilan DevOps yang canggih. Sistem ini menawarkan ikatan dalam CLI, Python, JavaScript, dan Rust—membuatnya mudah untuk menyematkan alur kerja ZK ke dalam pipa ML yang sudah ada.
Generasi kendala otomatis, perintah bukti yang disederhanakan, dan integrasi yang lancar dengan alat orkestrasi memungkinkan pengembang untuk fokus sepenuhnya pada logika aplikasi.
ORA adalah protokol orakel yang tidak tergantung pada rantai yang mempertemukan kecerdasan buatan dan blockchain, memungkinkan pengembang untuk membangun aplikasi terdesentralisasi sepenuhnya yang didukung oleh pembelajaran mesin yang dapat diverifikasi. Melalui infrastrukturnya, ORA membawa inferensi kecerdasan buatan, generasi konten, dan komputasi kompleks langsung onchain, menghilangkan ketergantungan pada API offchain atau komputasi terpusat. Inovasi intinya terletak pada menggabungkan eksekusi kecerdasan buatan dengan bukti kriptografis, menciptakan pipa kecerdasan buatan yang dapat diprogram dengan verifikasi tertanam.
Protokol memungkinkan pengembang apa pun untuk membangun aplikasi di mana output AI—baik itu respons model bahasa, gambar yang dihasilkan, atau pernyataan yang diverifikasi fakta—dapat disematkan ke dalam kontrak pintar dengan jaminan auditabilitas dan kebenaran.
Onchain AI Oracle (OAO)
Onchain AI Oracle (OAO) adalah produk andalan ORA. Ini memungkinkan kontrak pintar untuk meminta, menerima, dan bertindak berdasarkan hasil inferensi kecerdasan buatan yang dijalankan offchain—tetapi diverifikasi dan diselesaikan onchain. Pengembang dapat memanggil pekerjaan inferensi kecerdasan buatan melalui jaringan opML ORA. Hasilnya dikembalikan melalui fungsi panggilan balik dalam kontrak pengguna, membuat aplikasi onchain menjadi AI-native dan sepenuhnya otonom.
OAO mendukung beberapa model besar—seperti LLaMA3, Stable Diffusion, OpenLM Chat/Score—yang berjalan melalui infrastruktur yang dapat diverifikasi. Pengembang dapat mengintegrasikan OAO pada rantai yang kompatibel dengan EVM mana pun, dan kontrak pintar yang sudah dibangun seperti Prompt dan SimplePrompt memungkinkan untuk prototyping cepat dengan memperhatikan optimisasi gas.
opML dan Alur Verifikasi
Sistem pembelajaran mesin optimis (opML) ORA menggerakkan lapisan verifikasinya. Ketika pekerjaan inferensi dimulai, hasilnya diposting di rantai dengan periode tantangan. Selama periode ini, validator opML dapat memverifikasi hasil, dan jika salah, mengajukan bukti penipuan. Hasil yang benar menggantikan yang ditantang. Hal ini memastikan bahwa keluaran kecerdasan buatan yang disematkan ke dalam kontrak pintar dapat diverifikasi, tahan sensor, dan ekonomis aman.
Pendekatan optimis ini menyeimbangkan kinerja dan desentralisasi. Berbeda dengan zkML, yang mungkin memerlukan komputasi awal yang berat, opML membuatnya ekonomis tidak rasional bagi perilaku tidak jujur untuk berhasil—terutama saat jaringan validator berkembang.
Integrasi Pengembang
Pengembang berinteraksi dengan OAO melalui antarmuka modular yang terdokumentasi dengan baik. Untuk mengintegrasikan AI ke dalam kontrak pintar, seorang pengembang mewarisi AIOracleCallbackReceiver dan mengimplementasikan fungsi aiOracleCallback() untuk menerima hasil. Mereka kemudian dapat memanggil orakel untuk memulai inferensi menggunakan ID model, data input, dan alamat panggilan balik.
Saat ini empat model diterapkan di Arbitrum, dan integrasinya bisa semudah menggunakan template Prompt ORA. Infrastruktur ini juga mendukung kasus penggunaan yang lebih canggih melalui orkestrasi komputasi yang didukung oleh Lilith, memungkinkan inferensi yang lebih cepat dan beban kerja dengan throughput tinggi.
Penawaran Model Awal (IMO)
ORA menciptakan kerangka Penawaran Model Awal (IMO) untuk mendekentralisasi kepemilikan, pendapatan, dan tata kelola model AI. IMO mengonversi model AI melalui struktur token ganda:
Dengan mengaktifkan tata kelola berbasis token dan monetisasi, IMOs mendanai pengembangan sumber terbuka sambil memastikan infrastruktur AI tetap tahan sensor, dapat diakses secara global, dan dimiliki secara kolektif.
Kesimpulan
Saat vertikal AI terus berkembang, kebutuhan akan output AI yang dapat diverifikasi menjadi semakin kritis. Terlihat dari atas, ada berbagai pendekatan untuk memastikan kepercayaan dalam solusi AI terdesentralisasi, termasuk lingkungan eksekusi terpercaya (TEEs), Proof-of-Sampling (PoSP), Pembelajaran Mesin Tanpa Pengetahuan (ZKML), dan Pembelajaran Mesin Optimis (OPML).
Pendekatan-pendekatan tersebut berbeda dalam berbagai aspek, yaitu biaya, waktu yang diperlukan, dan tingkat jaminan keamanan. Kemungkinan besar semua solusi di atas yang disebutkan akan digunakan dengan cara tertentu, tergantung pada kasus penggunaan tertentu.
Teruskan Judul Asli ‘AI and Verifiability’
Saat sistem AI semakin terintegrasi dengan ekosistem blockchain, memastikan verifikasi output AI menjadi salah satu landasan utama untuk membangun kepercayaan, transparansi, dan akuntabilitas. Hal ini sangat penting terutama untuk keuangan terdesentralisasi (DeFi) dan aplikasi bukti kepribadian, di mana akurasi dan kehandalan dapat langsung memengaruhi hasil keuangan, keputusan tata kelola, dan identitas pengguna.
Argumen untuk Kecerdasan Buatan yang Dapat Diverifikasi dalam Sistem Terdesentralisasi
Memastikan bahwa proses pengambilan keputusan transparan dan dapat dimengerti. Pihak-pihak terkait memperoleh wawasan tentang bagaimana kesimpulan dihasilkan - penting ketika keputusan mempengaruhi transaksi on-chain atau tata kelola skala besar.
Melacak data, parameter, dan arsitektur model yang digunakan untuk menghasilkan prediksi AI. Dengan menetapkan provenans, pengguna mengetahui dari mana data pelatihan berasal dan model mana yang digunakan, meningkatkan kepercayaan dan mengurangi kemungkinan disinformasi.
Mengonfirmasi bahwa output AI akhir adalah akurat dan tidak diubah. Dalam konteks terdesentralisasi, ini sering melibatkan mekanisme bukti (misalnya, bukti pengetahuan nol, konsensus sampel) untuk memastikan bahwa komputasi atau inferensi tidak telah dimanipulasi di luar rantai.
Tantangan dalam Verifikasi AI On-Chain
Meskipun blockchain sangat baik dalam menyediakan buku besar yang tidak dapat diubah dan kepercayaan terdistribusi, komputasi AI on-chain bisa sangat mahal. Sebagai contoh, perkalian matriks untuk 1000×1000 bilangan bulat bisa menghabiskan miliaran gas—melebihi batas gas blok saat ini Ethereum (Zheng dkk., 2021). Akibatnya, sebagian besar proyek AI bergantung pada komputasi off-chain dengan verifikasi on-chain.
Namun, pendekatan di luar rantai memperkenalkan tantangan baru:
Potensi Penipuan: Tanpa verifikasi yang kuat, pelaku jahat dapat mengirimkan data yang salah atau dimanipulasi.
Titik Lemah Terpusat: Bergantung pada orakel di luar rantai atau server pribadi dapat merusak ethos terdesentralisasi, menyebabkan sensor atau titik-titik kegagalan tunggal.
Oleh karena itu, solusi-solusi yang sedang muncul bertujuan untuk mempertahankan kinerja tinggi sambil menggabungkan verifikasi berbasis kriptografi atau sampling, seimbang antara efisiensi dan desentralisasi.
EigenLayer adalah protokol restaking yang memungkinkan validator Ethereum untuk "restake" ETH mereka untuk mengamankan layanan terdesentralisasi tambahan, yang dikenal sebagai Layanan Yang Divalidasi Secara Aktif (AVS). Alih-alih memerlukan setiap validator baru untuk setiap tugas khusus (misalnya, validasi AI, operasi lintas-rantai), EigenLayer menggunakan kembali jaringan validator Ethereum yang tangguh dan terdesentralisasi.
EigenLayer meningkatkan keamanan dengan memungkinkan Layanan yang Divalidasi Secara Aktif (AVS) baru untuk mengakses set validator Ethereum yang sudah ada. Set validator ini sudah besar, terkapitalisasi dengan baik, dan didistribusikan secara geografis, menawarkan jaminan kriptoekonomi yang kuat tanpa perlu memulai jaringan baru dari awal.
Dengan mengaktifkan restaking, EigenLayer secara signifikan mengurangi overhead operasional. Proyek tidak lagi perlu membuat dan memelihara ekosistem validator mereka sendiri, yang menurunkan biaya infrastruktur dan hambatan untuk meluncurkan layanan terdesentralisasi baru di rantai.
Selain itu, sistem menawarkan fleksibilitas tinggi. AVS dapat menyesuaikan konsensus dan logika validasi mereka sendiri sambil tetap mewarisi keamanan lapisan dasar Ethereum, menjadikan EigenLayer sebagai dasar ideal untuk aplikasi terdesentralisasi yang modular, aman, dan dapat diskalakan.
Hyperbolic Labs memperkenalkan Proof of Sampling (PoSP), sebuah alternatif yang efisien dan dapat diskalakan untuk validasi Kecerdasan Buatan (AI) dibandingkan dengan zkML tradisional atau bukti penipuan optimis. Protokol verifikasi berbasis sampel yang baru ini memastikan bahwa pengguna kami dapat mempercayai hasil dari model-model mereka yang dilatih dan dijalankan di jaringan GPU terdesentralisasi kami. Protokol ini, yang dikenal sebagai Proof of Sampling (PoSP), adalah standar emas baru untuk verifikasi dalam AI.
Dikembangkan oleh tim Hyperbolic bekerja sama dengan peneliti dari UC Berkeley dan Columbia University, PoSP menggunakan teori permainan untuk mengamankan sistem terdesentralisasi. Ini memvalidasi sampel strategis hasil dan menerapkan proses arbitrase untuk node-node yang tidak jujur untuk mendorong perilaku 100% jujur di seluruh jaringan.
Proof of Spontaneous Proofs (PoSP) menawarkan beberapa keuntungan kunci: itu memungkinkan verifikasi yang efisien dengan menambahkan kurang dari 1% beban komputasi, memungkinkan node untuk mempertahankan kecepatan operasi hampir native. Keamanan yang kokoh menjamin peserta tetap jujur, karena pemeriksaan acak membuat penipuan terlalu berisiko untuk layak dilakukan. Melalui insentif teori permainan, PoSP menciptakan Kesetimbangan Nash Strategi Murni di mana perilaku jujur selalu merupakan pilihan rasional. Akhirnya, PoSP sangat dapat diskalakan untuk layanan AI, mampu mendukung beban kerja AI terdesentralisasi dalam skala besar sambil memastikan proses komputasi dan inferensi kinerja tinggi tetap dapat diverifikasi dan dipercaya.
Audit Acak: Sebuah set validator yang berputar (melalui EigenLayer) secara teratur mengambil sampel dan memeriksa komputasi AI. Verifikasi terus menerus ini mencegah kecurangan sistematis.
Insentif Kesetimbangan Nash: Perilaku jahat secara ekonomi tidak rasional bagi validator—output yang tidak jujur atau inkonsisten mengakibatkan hukuman yang dapat dipotong.
Throughput Tinggi: Beban kinerja rendah PoSP membuatnya cocok untuk kasus penggunaan yang memerlukan inferensi AI cepat dan sering.
Berbeda dengan solusi AI terdesentralisasi lainnya, ketika Anda menjalankan inferensi pada jaringan terdesentralisasi Hyperbolic, Anda dapat yakin bahwa Anda menerima hasil yang valid.
Dengan mengintegrasikan PoSP ke dalam EigenLayer, layanan AI terdesentralisasi dapat mencapai kerangka kerja yang aman dan minim kepercayaan yang dapat menangani jumlah permintaan inferensi yang semakin bertambah tanpa mengorbankan desentralisasi atau efisiensi biaya.
Validasi Acak: Validator dipilih secara acak untuk memverifikasi output, memastikan hasil yang tidak bias.
Dukungan AVS yang Dapat Diskalakan: PoSP mengurangi tuntutan komputasi, memungkinkan EigenLayer untuk mengamankan layanan skala besar dengan efisien.
Pencegahan Penipuan: Hukuman yang ketat membuat ketidakjujuran tidak menguntungkan, sementara perilaku jujur tetap menjadi strategi optimal.
Protokol EigenLayer yang digabungkan dengan protokol Proof of Sampling kami secara mendasar mengubah cara kita mengamankan layanan terdesentralisasi. Kami sekarang menawarkan infrastruktur yang dapat diskalakan, dapat diandalkan, dan tahan terhadap kecurangan dengan biaya yang jauh lebih murah." - Jasper Zhang, CEO Hyperbolic
Baca selengkapnya tentang PoSP di sini
Jaringan Mira bertujuan untuk mengatasi tantangan mendasar dalam AI, yaitu kecenderungan model bahasa besar (LLMs) menghasilkan informasi yang salah. Dirancang untuk mengurangi halusinasi dan memaksimalkan akurasi output tanpa pengawasan manusia, Mira memanfaatkan jaringan terdesentralisasi dari node-node independen untuk memverifikasi output AI secara tidak dapat dipercaya secara bersamaan.
Ada tiga langkah dalam arsitektur Mira
Binerisasi
Proses memecah output menjadi 'klaim' yang lebih sederhana.
Verifikasi Terdistribusi
Klaim di atas diverifikasi oleh jaringan node verifikator yang menjalankan model khusus untuk memverifikasi klaim tersebut. Verifikasi dilakukan dalam format pertanyaan pilihan ganda. Klaim untuk diverifikasi secara acak dipecah menjadi beberapa bagian di antara verifikator, yang membuatnya sulit untuk berkolusi.
Proof-of-Verifikasi
Sebuah mekanisme konsensus hibrid yang menggabungkan Proof-of-Work (PoW) dan Proof-of-Stake (PoS) digunakan. Setiap verifier perlu melakukan staking untuk berpartisipasi dalam verifikasi. Pendekatan ini memastikan bahwa verifier benar-benar melakukan inferensi, bukan hanya memberikan kesaksian. Staking dari seorang verifier akan dipotong jika output mereka terus-menerus ditemukan berbeda dari konsensus.
Setelah konsensus tercapai oleh jaringan pada suatu output, sertifikat kriptografis dibuat dan ditulis ke blockchain, menciptakan catatan yang tidak dapat diubah dari fakta-fakta yang diverifikasi.
Sumber:Whitepaper Jaringan Mira
Privasi adalah aspek kunci desain Mira. Mengingat klaim-klaim tersebut di-sharded secara acak, tidak mungkin bagi satu operator node tunggal untuk merekonstruksi output asli. Selain itu, respons verifikasi dari verifier independen dijaga kerahasiaannya sebelum konsensus, mencegah kebocoran informasi.
Mira berencana untuk memverifikasi konten yang semakin kompleks, yang mencakup kode, data terstruktur, dan konten multimedia. Di masa depan, Mira juga akan merekonstruksi konten yang tidak valid ketika konten tidak valid terdeteksi, mencapai akurasi dan kecepatan dalam output AI. Pada akhirnya, Jaringan Mira akan dapat mengumpulkan fakta yang aman secara ekonomi, menciptakan database untuk pemeriksaan fakta.
Saat penggunaan jaringan meningkat - generasi biaya yang lebih tinggi - penghargaan verifikasi yang lebih baik - menarik lebih banyak operator node - akurasi, biaya, dan laten yang lebih baik dalam verifikasi jawaban
Atoma adalah jaringan eksekusi AI terdesentralisasi, pribadi, dan dapat diverifikasi, live di mainnet Sui. Arsitektur inti terdiri dari tiga elemen: (a) lapisan komputasi dan; (b) lapisan verifikasi dan; (c) lapisan privasi.
Lapisan Komputasi
Sebuah jaringan global dari node eksekusi yang memproses permintaan inferensi. Sejumlah besar node tersedia dengan bekerja dengan berbagai pusat data, dan perangkat tepi seperti perangkat digital individu.
Dengan Atoma, bobot model tersedia secara lokal di node, meningkatkan kecepatan inferensi ketika permintaan diterima. Selain itu, permintaan yang diterima diarahkan ke node yang paling cocok, sesuai dengan tugas yang sesuai dengan kinerja dan biaya yang sesuai.
Atoma berfokus pada mengoptimalkan efisiensi menjalankan inferensi melalui beberapa fitur, termasuk FlashAttention dan Paged Attention, yang keduanya berkontribusi pada pengurangan overhead komputasi.
Lapisan Verifikasi
Integritas komputasi diverifikasi melalui konsensus sampel. Ini adalah proses di mana node dipilih secara acak untuk menjalankan inferensi, dan menghasilkan hash kriptografis dari output. Jika semua hash yang dihasilkan oleh kumpulan node terpilih cocok, output inferensi diverifikasi. Jika ada ketidaksesuaian di antara hash yang dihasilkan, jaringan akan mencari node yang tidak jujur, yang akan dikenai hukuman melalui pemotongan sahamnya.
Peluang bagi penyerang jahat untuk mengendalikan setengah atau lebih daya GPU jaringan keseluruhan untuk memanipulasi sistem sangat rendah, dan semakin sulit seiring dengan meningkatnya skala jaringan node. Jumlah node yang dipilih untuk sampling bersifat fleksibel, untuk tugas dengan taruhan yang lebih tinggi, kumpulan node yang lebih besar dapat dipilih.
Lapisan Privasi
Atoma menempatkan penekanan pada menjaga data pengguna tetap aman dan pribadi, dengan menjalankan perhitungan dalam Lingkungan Eksekusi Terpercaya (TEE). Data yang dimasukkan oleh pengguna dienkripsi, dan hanya di-dekripsi di TEE. Hal ini mencegah pihak lain di blockchain dari melihat data pengguna. Setelah inferensi dijalankan, output dienkripsi sebelum dikembalikan kepada pengguna.
Meskipun di atas merupakan solusi yang aman, perlu dicatat bahwa hal itu datang dengan sebuah kompromi dalam hal overhead komputasi yang lebih tinggi, yang mungkin mengakibatkan biaya yang lebih tinggi bagi pengguna.
Sama seperti Atoma Network di atas, Aizel Network memilih pendekatan berbasis TEE. Perbedaannya di sini adalah bahwa Aizel telah mengintegrasikan Multi-Party Computation (MPC) ke dalam alur kerja mereka, di mana tugas-tugas inferensi diarahkan ke berbagai TEE. Ini bertujuan untuk mendekentralisasi jaringan, memastikan bahwa inferensi masih memungkinkan bahkan ketika satu TEE diretas atau turun.
Fortytwo memperjuangkan model “swarm inference” yang dibangun di sekitar Small, Specialized Models (SLMs). Alih-alih bergantung pada satu AI monolitik besar, jaringan mengatur beberapa model yang dijalankan oleh kontributor, masing-masing disesuaikan untuk tugas atau domain tertentu. Model-model ini bekerja secara paralel—memverifikasi, menyempurnakan, dan saling memeriksa keluaran masing-masing—untuk memberikan inferensi yang lebih akurat dan terpercaya.
Struktur terdesentralisasi ini menangani masalah-masalah yang sering dihadapi oleh model-model besar tunggal, seperti bottleneck dalam pelatihan, persyaratan perangkat keras yang mahal, dan titik-titik kegagalan tunggal. Dengan mendistribusikan kecerdasan di sejumlah model-model kecil dan kontributor, Fortytwo memastikan skalabilitas dan toleransi kesalahan.
Inisialisasi Berdasarkan Niat
Sebelum tugas dimulai, kontributor menentukan tujuan, anggaran, dan kendala. Pendekatan ini menyelaraskan setiap SLM dengan misi keseluruhan—baik itu merangkum teks, menganalisis kode, atau inferensi khusus lainnya.
Spesialisasi yang Didefinisikan oleh Kontributor
Operator node individu membawa model yang disesuaikan sendiri ke jaringan. Mereka tetap memiliki kendali penuh atas bobot, bias, dan data properti—memastikan privasi untuk setiap pemilik model. Model khusus ini dapat fokus pada bidang seperti analisis sentimen, analisis teks hukum, atau bahkan generasi kode yang spesifik untuk domain.
Privasi Berat & Bias
Aspek penting dari Fortytwo adalah bahwa kontributor tidak perlu berbagi internal model mentah. Hanya hasil inferensi yang dibagikan dengan jaringan. Desain ini menjaga kekayaan intelektual dari setiap pemilik model dan membantu mengurangi risiko yang terkait dengan paparan data sensitif.
Kolaborasi Multi-SLM
Tugas-tugas dibagi di antara 7–8 (atau lebih) SLM khusus, masing-masing memberikan perspektif domain yang unik. Dengan membagi tugas-tugas besar menjadi sub-problem yang lebih kecil, jaringan memanfaatkan kekuatan masing-masing model dengan lebih efektif.
Campuran Datar Mixture-of-Experts (MoE)
Daripada menumpuk sub-expert dalam beberapa lapisan, Fortytwo menggunakan pendekatan MoE yang “datar”, di mana setiap model memproses data secara independen. Desain ini dapat menjadi sangat efisien karena menghindari kompleksitas dari gerbang hierarkis, membiarkan para ahli fokus sepenuhnya pada tugas sub mereka masing-masing.
Deteksi Kesalahan Bersama
Evaluasi sejawat memainkan peran penting dalam menjaga akurasi inferensi. Ketika model tidak sependapat, jaringan menandai perbedaan untuk analisis yang lebih mendalam. Proses cross-verifikasi ini penting untuk mendeteksi kesalahan lebih awal dan memastikan output berkualitas tinggi.
Hardware Tingkat Konsumen
Fortytwo dioptimalkan untuk perangkat seperti Apple Silicon dan GPU RTX, menurunkan hambatan biaya dan memperluas basis operator node potensial. Pendekatan ini mendemokratisasi KI dengan memungkinkan lebih banyak individu—dan bukan hanya pusat data besar—untuk berpartisipasi.
Klaster Penempatan
Banyak operator node memilih platform cloud (misalnya, AWS) atau cluster self-hosted untuk meminimalkan laten. Cluster yang terkoordinasi dengan baik menjadi sangat berharga dalam skenario yang membutuhkan waktu di mana bahkan keterlambatan kecil pun dapat berdampak signifikan terhadap pengalaman pengguna.
Partisipasi yang Berkembang
Ribuan peserta telah menunjukkan minat untuk menjalankan node inferensi, menciptakan jaringan yang beragam dan terdistribusi. Perluasan ini membawa lebih banyak sumber daya komputasi online, yang lebih lanjut meningkatkan throughput dan ketahanan.
Kontribusi Model Seperti Wikipedia
Sama seperti editor Wikipedia yang bekerja sama pada artikel, setiap operator node dapat meningkatkan atau menyempurnakan model-model khusus dan berbagi teknik inferensi yang ditingkatkan. Pemeliharaan dan penyempurnaan kolektif ini mendorong inovasi yang berkelanjutan dan meningkatkan kecerdasan keseluruhan jaringan.
Lagrange berada di garis terdepan dalam menggunakan teknologi Zero-Knowledge (ZK) untuk membawa verifikasi ke kecerdasan buatan. Motto mereka—“Masa depan kecerdasan buatan adalah ZK, dan masa depan umat manusia adalah Lagrange”—menggarisbawahi keyakinan bahwa, ketika kecerdasan buatan berkembang menuju superintelejensi, kita harus memastikan transparansi dan kepercayaan dalam cara model-model ini berfungsi.
DeepProve: kinerja tinggi zkML
Dengan menghapus interaksi AI "kotak hitam", Lagrange memastikan bahwa pengguna tidak perlu mempercayai AI secara membabi buta. Dalam lingkungan terdesentralisasi di mana minimalisasi kepercayaan adalah yang terpenting, kepastian kriptografi tentang integritas model dan kebenaran output menjadi penting.
Selain itu, Inference Labs beroperasi sebagai lengan yang berfokus pada aplikasi dari Lagrange, menjembatani penelitian dan implementasi praktis. Sementara Lagrange berkonsentrasi pada desain kriptografis inti dan sirkuit, Inference Labs memastikan terobosan ini siap diproduksi.
Integrasi Dunia Nyata
Menanamkan zkML ke dalam pipa pemrosesan pembelajaran mesin yang sudah ada, berfokus pada sektor-sektor seperti DeFi, gaming, kesehatan, dan asal-usul rantai pasokan.
Mitra dengan para pemimpin industri untuk menguji fitur-fitur baru Lagrange di bawah kendala dunia nyata (misalnya, jumlah parameter yang besar, persyaratan latency yang ketat).
EZKL adalah sistem open-source untuk membuat kecerdasan buatan (AI) dan analitika yang dapat diverifikasi menggunakan bukti pengetahuan nol (ZKP). Ini memungkinkan pengembang untuk membuktikan bahwa model AI dieksekusi dengan benar tanpa mengungkap data sensitif atau rincian model propietary. Terinspirasi oleh sistem seperti Face ID milik Apple, EZKL memperluas keamanan model yang tidak dapat dikompromikan ke model apa pun pada perangkat apa pun—tanpa bergantung pada perangkat keras khusus seperti TEE.
Infrastruktur Bukti Pengetahuan Nol
EZKL mengotomatisasi seluruh siklus hidup ZKP—dari kompilasi model hingga generasi dan verifikasi bukti. Pengguna menyediakan model AI dalam format ONNX, yang kemudian dikompilasi oleh EZKL ke dalam sirkuit ramah ZK menggunakan versi dioptimalkan dari sistem pembuktian Halo2. Sistem kemudian menghasilkan bukti kriptografis dari eksekusi model yang benar yang dapat diverifikasi di setiap perangkat.
Proses kriptografi ini memungkinkan kepercayaan terdesentralisasi dalam aplikasi AI beresiko tinggi, seperti pengambilan keputusan keuangan, otentikasi biometrik, dan validasi inferensi real-time.
SNARKs Kolaboratif (Cosnarks)
EZKL baru-baru ini memperkenalkan Collaborative SNARKs (cosnarks), memungkinkan dua pihak—seperti pemilik model dan pemilik data—untuk bersama-sama menghasilkan bukti ZK tanpa salah satu pihak mengungkapkan aset rahasia mereka. Berbeda dengan sistem pembuktian MPC yang didelegasikan, cosnarks menghilangkan asumsi kepercayaan tambahan dengan membatasi komputasi hanya pada pihak yang terlibat.
Kemajuan ini memungkinkan kasus penggunaan seperti penilaian kredit pribadi, strategi perdagangan rahasia, dan verifikasi identitas zero-knowledge. Implementasinya memanfaatkan perpustakaan MPC yang dioptimalkan 2PC milik Renegade dan terintegrasi langsung ke dalam Lilith, lapisan orkestrasi awan EZKL.
Dukungan Model dan Fleksibilitas
EZKL mendukung berbagai arsitektur AI/ML, termasuk CNN, RNN, transformer gaya GPT, pohon keputusan, dan model difusi stabil. Setiap model yang kompatibel dengan standar ONNX dapat dikonversi menjadi sirkuit ZK.
Dengan mengabstraksikan logika model ke dalam sirkuit matematika, EZKL memungkinkan inferensi yang menjaga privasi di berbagai industri seperti keuangan, perawatan kesehatan, dan identitas. Logika berbasis pohon, mekanisme perhatian, dan operasi matriks berskala besar semuanya didukung dalam kerangka kerja yang didukung oleh Halo2.
Pengalaman Pengembang
EZKL memprioritaskan aksesibilitas dan abstraksi kompleksitas. Para pengembang tidak memerlukan pengetahuan kriptografis sebelumnya, pengalaman desain sirkuit, atau keterampilan DevOps yang canggih. Sistem ini menawarkan ikatan dalam CLI, Python, JavaScript, dan Rust—membuatnya mudah untuk menyematkan alur kerja ZK ke dalam pipa ML yang sudah ada.
Generasi kendala otomatis, perintah bukti yang disederhanakan, dan integrasi yang lancar dengan alat orkestrasi memungkinkan pengembang untuk fokus sepenuhnya pada logika aplikasi.
ORA adalah protokol orakel yang tidak tergantung pada rantai yang mempertemukan kecerdasan buatan dan blockchain, memungkinkan pengembang untuk membangun aplikasi terdesentralisasi sepenuhnya yang didukung oleh pembelajaran mesin yang dapat diverifikasi. Melalui infrastrukturnya, ORA membawa inferensi kecerdasan buatan, generasi konten, dan komputasi kompleks langsung onchain, menghilangkan ketergantungan pada API offchain atau komputasi terpusat. Inovasi intinya terletak pada menggabungkan eksekusi kecerdasan buatan dengan bukti kriptografis, menciptakan pipa kecerdasan buatan yang dapat diprogram dengan verifikasi tertanam.
Protokol memungkinkan pengembang apa pun untuk membangun aplikasi di mana output AI—baik itu respons model bahasa, gambar yang dihasilkan, atau pernyataan yang diverifikasi fakta—dapat disematkan ke dalam kontrak pintar dengan jaminan auditabilitas dan kebenaran.
Onchain AI Oracle (OAO)
Onchain AI Oracle (OAO) adalah produk andalan ORA. Ini memungkinkan kontrak pintar untuk meminta, menerima, dan bertindak berdasarkan hasil inferensi kecerdasan buatan yang dijalankan offchain—tetapi diverifikasi dan diselesaikan onchain. Pengembang dapat memanggil pekerjaan inferensi kecerdasan buatan melalui jaringan opML ORA. Hasilnya dikembalikan melalui fungsi panggilan balik dalam kontrak pengguna, membuat aplikasi onchain menjadi AI-native dan sepenuhnya otonom.
OAO mendukung beberapa model besar—seperti LLaMA3, Stable Diffusion, OpenLM Chat/Score—yang berjalan melalui infrastruktur yang dapat diverifikasi. Pengembang dapat mengintegrasikan OAO pada rantai yang kompatibel dengan EVM mana pun, dan kontrak pintar yang sudah dibangun seperti Prompt dan SimplePrompt memungkinkan untuk prototyping cepat dengan memperhatikan optimisasi gas.
opML dan Alur Verifikasi
Sistem pembelajaran mesin optimis (opML) ORA menggerakkan lapisan verifikasinya. Ketika pekerjaan inferensi dimulai, hasilnya diposting di rantai dengan periode tantangan. Selama periode ini, validator opML dapat memverifikasi hasil, dan jika salah, mengajukan bukti penipuan. Hasil yang benar menggantikan yang ditantang. Hal ini memastikan bahwa keluaran kecerdasan buatan yang disematkan ke dalam kontrak pintar dapat diverifikasi, tahan sensor, dan ekonomis aman.
Pendekatan optimis ini menyeimbangkan kinerja dan desentralisasi. Berbeda dengan zkML, yang mungkin memerlukan komputasi awal yang berat, opML membuatnya ekonomis tidak rasional bagi perilaku tidak jujur untuk berhasil—terutama saat jaringan validator berkembang.
Integrasi Pengembang
Pengembang berinteraksi dengan OAO melalui antarmuka modular yang terdokumentasi dengan baik. Untuk mengintegrasikan AI ke dalam kontrak pintar, seorang pengembang mewarisi AIOracleCallbackReceiver dan mengimplementasikan fungsi aiOracleCallback() untuk menerima hasil. Mereka kemudian dapat memanggil orakel untuk memulai inferensi menggunakan ID model, data input, dan alamat panggilan balik.
Saat ini empat model diterapkan di Arbitrum, dan integrasinya bisa semudah menggunakan template Prompt ORA. Infrastruktur ini juga mendukung kasus penggunaan yang lebih canggih melalui orkestrasi komputasi yang didukung oleh Lilith, memungkinkan inferensi yang lebih cepat dan beban kerja dengan throughput tinggi.
Penawaran Model Awal (IMO)
ORA menciptakan kerangka Penawaran Model Awal (IMO) untuk mendekentralisasi kepemilikan, pendapatan, dan tata kelola model AI. IMO mengonversi model AI melalui struktur token ganda:
Dengan mengaktifkan tata kelola berbasis token dan monetisasi, IMOs mendanai pengembangan sumber terbuka sambil memastikan infrastruktur AI tetap tahan sensor, dapat diakses secara global, dan dimiliki secara kolektif.
Kesimpulan
Saat vertikal AI terus berkembang, kebutuhan akan output AI yang dapat diverifikasi menjadi semakin kritis. Terlihat dari atas, ada berbagai pendekatan untuk memastikan kepercayaan dalam solusi AI terdesentralisasi, termasuk lingkungan eksekusi terpercaya (TEEs), Proof-of-Sampling (PoSP), Pembelajaran Mesin Tanpa Pengetahuan (ZKML), dan Pembelajaran Mesin Optimis (OPML).
Pendekatan-pendekatan tersebut berbeda dalam berbagai aspek, yaitu biaya, waktu yang diperlukan, dan tingkat jaminan keamanan. Kemungkinan besar semua solusi di atas yang disebutkan akan digunakan dengan cara tertentu, tergantung pada kasus penggunaan tertentu.