Kemunculan blockchain publik menandai kemajuan yang mendalam dalam sejarah ilmu komputer, sementara perkembangan kecerdasan buatan memiliki dampak signifikan pada dunia kita. Teknologi blockchain menawarkan templat baru untuk penyelesaian transaksi, penyimpanan data, dan desain sistem, sedangkan kecerdasan buatan mewakili revolusi dalam komputasi, analisis, dan pengiriman konten. Inovasi di industri ini sedang melepaskan kasus penggunaan baru yang dapat mempercepat adopsi kedua sektor dalam beberapa tahun mendatang. Laporan ini meneliti integrasi terus-menerus dari kripto dan kecerdasan buatan, berfokus pada kasus penggunaan baru yang bertujuan untuk menjembatani kesenjangan antara keduanya dan memanfaatkan kekuatan mereka. Secara khusus, melihat proyek-proyek yang mengembangkan protokol komputasi terdesentralisasi, infrastruktur pembelajaran mesin pengetahuan nol (zkML), dan agen kecerdasan buatan.
Mata Uang Kripto menawarkan lapisan penyelesaian yang bersifat tanpa izin, tanpa kepercayaan, dan dapat disusun untuk kecerdasan buatan, membuka kemungkinan seperti akses yang lebih mudah ke perangkat keras melalui sistem komputasi terdesentralisasi, membangun agen kecerdasan buatan yang mampu menjalankan tugas kompleks yang membutuhkan pertukaran nilai, dan mengembangkan identitas dan solusi provenans untuk melawan serangan Sybil dan deepfakes. Kecerdasan buatan membawa banyak manfaat yang sama seperti yang terlihat di Web 2.0 ke mata uang kripto, termasuk pengalaman pengguna dan pengembang yang ditingkatkan melalui model bahasa besar seperti ChatGPT dan Copilot, dan potensi fungsionalitas dan otomatisasi yang signifikan untuk kontrak pintar. Blockchain menyediakan lingkungan yang transparan dan kaya data yang diperlukan untuk kecerdasan buatan, meskipun daya komputasi terbatas dari blockchain adalah hambatan utama untuk integrasi langsung dari model kecerdasan buatan.
Eksperimen dan adopsi akhirnya dalam percampuran mata uang kripto dan AI didorong oleh kekuatan yang sama yang mendorong kasus penggunaan paling menjanjikan untuk mata uang kripto: akses ke lapisan koordinasi tanpa izin dan tanpa kepercayaan, memfasilitasi transfer nilai yang lebih baik. Mengingat potensi besar, para pemangku kepentingan di bidang ini perlu memahami cara mendasar di mana teknologi ini berpotongan.
Kecerdasan Buatan adalah penggunaan komputasi dan mesin untuk meniru kemampuan penalaran dan pemecahan masalah manusia.
Jaringan Saraf adalah metode pelatihan model kecerdasan buatan. Mereka menjalankan input melalui lapisan algoritmik diskrit, menyempurnakannya hingga output yang diinginkan dihasilkan. Jaringan saraf terdiri dari persamaan dengan bobot yang dapat disesuaikan untuk mengubah output. Mereka mungkin memerlukan data dan komputasi yang ekstensif untuk pelatihan untuk memastikan output yang akurat. Ini adalah salah satu cara paling umum untuk mengembangkan model AI (misalnya, ChatGPT bergantung pada proses jaringan saraf berbasis Transformers).
Pelatihan adalah proses pengembangan jaringan saraf dan model AI lainnya. Ini memerlukan jumlah data yang signifikan untuk melatih model agar dapat menginterpretasikan input dengan benar dan menghasilkan output yang akurat. Selama pelatihan, bobot persamaan model terus dimodifikasi hingga output yang memuaskan dihasilkan. Pelatihan dapat sangat mahal. Misalnya, ChatGPT menggunakan puluhan ribu GPU miliknya sendiri untuk memproses data. Tim dengan sumber daya yang lebih sedikit sering bergantung pada penyedia komputasi khusus, seperti Amazon Web Services, Azure, dan penyedia Google Cloud.
Inferensi adalah penggunaan aktual dari model AI untuk mendapatkan output atau hasil (misalnya, menggunakan ChatGPT untuk membuat garis besar untuk sebuah makalah tentang persilangan mata uang kripto dan AI). Inferensi digunakan sepanjang proses pelatihan dan dalam produk akhir. Karena biaya komputasi, bahkan setelah pelatihan selesai, biaya operasional mereka bisa tinggi, meskipun intensitas komputasinya lebih rendah daripada pelatihan.
Zero-Knowledge Proofs (ZKP) memungkinkan verifikasi pernyataan tanpa mengungkapkan informasi yang mendasarinya. Ini berguna dalam cryptocurrency karena dua alasan utama: 1) Privasi dan 2) Penskalaan. Untuk privasi, ini memungkinkan pengguna untuk bertransaksi tanpa mengungkapkan informasi sensitif (misalnya, berapa banyak ETH dalam dompet). Untuk penskalaan, ini memungkinkan komputasi off-chain dibuktikan secara on-chain lebih cepat daripada mengeksekusi ulang komputasi. Hal ini memungkinkan blockchain dan aplikasi untuk menjalankan perhitungan murah off-chain dan kemudian memverifikasi mereka on-chain. Untuk informasi lebih lanjut tentang pengetahuan nol dan perannya dalam Mesin Virtual Ethereum, lihat laporan Christine Kim tentang zkEVM: Masa Depan Skalabilitas Ethereum.
Proyek-proyek yang mengintegrasikan kecerdasan buatan dan mata uang kripto masih membangun infrastruktur dasar yang diperlukan untuk mendukung interaksi kecerdasan buatan on-chain dalam skala besar.
Pasar komputasi terdesentralisasi sedang muncul untuk menyediakan perangkat keras fisik yang sangat dibutuhkan untuk melatih dan menafsirkan model AI, terutama dalam bentuk Unit Pemrosesan Grafis (GPUs). Pasar dua sisi ini menghubungkan orang yang menyewakan dan mencari untuk menyewa komputasi, memfasilitasi transfer nilai dan verifikasi perhitungan. Dalam komputasi terdesentralisasi, beberapa subkategori yang menawarkan fungsionalitas tambahan sedang muncul. Selain pasar bilateral, laporan ini juga meninjau penyedia pelatihan pembelajaran mesin yang menawarkan pelatihan yang dapat diverifikasi dan penyempurnaan output, serta proyek-proyek yang didedikasikan untuk menghubungkan komputasi dan generasi model untuk memungkinkan AI, sering disebut sebagai jaringan insentif cerdas.
zkML merupakan area fokus yang sedang berkembang untuk proyek-proyek yang bertujuan untuk memberikan output model yang dapat diverifikasi on-chain secara ekonomis dan tepat waktu. Proyek-proyek ini pada umumnya memungkinkan aplikasi untuk menangani permintaan komputasi berat off-chain, kemudian memposting output yang dapat diverifikasi on-chain, membuktikan bahwa beban kerja off-chain telah selesai dan akurat. zkML saat ini mahal dan memakan waktu, namun semakin banyak digunakan sebagai solusi. Hal ini terbukti dari jumlah integrasi yang semakin meningkat antara penyedia zkML dan aplikasi DeFi/gaming yang ingin memanfaatkan model AI.
Pasokan komputasi yang cukup dan kemampuan untuk memverifikasi komputasi on-chain membuka pintu bagi agen AI on-chain. Agen adalah model-model terlatih yang mampu mengeksekusi permintaan atas nama pengguna. Agen menawarkan kesempatan untuk secara signifikan meningkatkan pengalaman on-chain, memungkinkan pengguna untuk mengeksekusi transaksi kompleks dengan mudah hanya dengan berbicara dengan chatbot. Namun, saat ini, proyek agen masih difokuskan pada pengembangan infrastruktur dan alat untuk penyebaran yang mudah dan cepat.
Kecerdasan Buatan membutuhkan komputasi yang luas untuk melatih model dan menjalankan inferensi. Selama dekade terakhir, ketika model-model menjadi semakin kompleks, permintaan akan komputasi telah tumbuh secara eksponensial. Sebagai contoh, OpenAI mengamati bahwa dari tahun 2012 hingga 2018, permintaan komputasi untuk model-modelnya meningkat dua kali lipat setiap dua tahun, beralih menjadi dua kali lipat setiap tiga setengah bulan. Hal ini menyebabkan lonjakan permintaan GPU, dengan beberapa penambang mata uang kripto bahkan mengubah penggunaan GPU mereka untuk menyediakan layanan komputasi awan. Saat persaingan untuk akses komputasi semakin intensif dan biaya meningkat, beberapa proyek memanfaatkan teknologi kriptografi untuk menawarkan solusi komputasi terdesentralisasi. Mereka menyediakan komputasi on-demand dengan harga yang kompetitif, memungkinkan tim untuk melatih dan menjalankan model-model dengan biaya yang terjangkau. Dalam beberapa kasus, kompromi mungkin melibatkan kinerja dan keamanan.
Permintaan untuk GPU terbaru (misalnya, yang diproduksi oleh Nvidia) sangat signifikan. Pada bulan September, Tether memperoleh saham dalam penambang bitcoin Jerman Northern Data, dilaporkan menghabiskan $420 juta untuk membeli 10.000 GPU H100 (salah satu GPU paling canggih untuk pelatihan kecerdasan buatan). Waktu tunggu untuk mendapatkan perangkat keras kelas atas bisa setidaknya enam bulan, jika tidak lebih lama dalam banyak kasus. Lebih buruk lagi, perusahaan sering diminta untuk menandatangani kontrak jangka panjang untuk mengamankan volume komputasi yang mungkin bahkan tidak mereka gunakan. Hal ini dapat menyebabkan situasi di mana sumber daya komputasi tersedia namun tidak dapat diakses di pasar. Sistem komputasi terdesentralisasi membantu mengatasi ketidaksempurnaan pasar ini dengan menciptakan pasar sekunder di mana pemilik komputasi dapat langsung menyewakan kapasitas berlebih mereka setelah pemberitahuan, sehingga melepaskan pasokan baru.
Selain harga yang kompetitif dan aksesibilitas, proposisi nilai kunci dari komputasi terdesentralisasi adalah resistensi sensor. Pengembangan AI mutakhir semakin didominasi oleh perusahaan teknologi besar dengan kemampuan akses komputasi dan data yang tak tertandingi. Tema kunci pertama yang disorot dalam Laporan Tahunan AI Index 2023 adalah pertumbuhan yang melampaui dunia akademis oleh industri dalam pengembangan model AI, yang mengkonsentrasikan kontrol di tangan beberapa pemimpin teknologi. Hal ini menimbulkan kekhawatiran tentang potensi mereka untuk menguasai pengaruh yang signifikan dalam menetapkan norma dan nilai yang mendasari model AI, terutama setelah perusahaan teknologi ini mendorong regulasi untuk membatasi pengembangan AI yang tak terkendali.
Beberapa model komputasi terdesentralisasi muncul dalam beberapa tahun terakhir, masing-masing dengan fokus dan komprominya sendiri.
Secara garis besar, proyek-proyek seperti Akash, io.net, iExec, dan Cudos adalah aplikasi dari komputasi terdesentralisasi, yang menawarkan solusi di luar data dan komputasi umum, akses ke komputasi khusus untuk pelatihan dan inferensi kecerdasan buatan. Akash menonjol sebagai satu-satunya platform “super cloud” yang sepenuhnya open-source, menggunakan Cosmos SDK untuk jaringan proof-of-stake-nya. AKT, token asli Akash, berfungsi sebagai metode pembayaran untuk mengamankan jaringan dan mendorong partisipasi. Diluncurkan pada tahun 2020, mainnet Akash awalnya berfokus pada pasar komputasi awan tanpa izin, menampilkan layanan penyimpanan dan sewa CPU. Pada Juni 2023, Akash memperkenalkan testnet berbasis GPU, diikuti oleh peluncuran mainnet GPU pada bulan September, memungkinkan penyewaan GPU untuk pelatihan dan inferensi kecerdasan buatan.
Ekosistem Akash terdiri dari dua peserta utama: penyewa, yang mencari sumber daya komputasi, dan penyedia, pemasok komputasi. Proses lelang terbalik memfasilitasi pencocokan penyewa dan penyedia, di mana penyewa memposting persyaratan komputasi mereka, termasuk lokasi server pilihan atau jenis perangkat keras dan anggaran mereka. Penyedia kemudian menawar, dengan penawar terendah diberikan tugas. Validator mempertahankan integritas jaringan, dengan batas saat ini pada 100 validator, direncanakan akan meningkat seiring waktu. Partisipasi sebagai validator terbuka bagi mereka yang mempertaruhkan lebih banyak AKT daripada validator saat ini yang paling sedikit dipertaruhkan. Pemegang AKT dapat mendelegasikan token mereka ke validator, dengan biaya transaksi dan hadiah blok yang didistribusikan di AKT. Selain itu, untuk setiap sewa, jaringan Akash mendapatkan "take rate," yang diputuskan oleh komunitas, didistribusikan kepada pemegang AKT.
Pasar sekunder untuk komputasi terdesentralisasi bertujuan untuk mengatasi ketidaksempurnaan dalam pasar komputasi yang ada, di mana kendala pasokan menyebabkan perusahaan menyimpan sumber daya melebihi kebutuhan mereka dan kontrak jangka panjang dengan penyedia cloud lebih lanjut membatasi pasokan. Platform komputasi terdesentralisasi membuka pasokan baru, memungkinkan siapa pun dengan kebutuhan komputasi menjadi penyedia.
Apakah lonjakan permintaan untuk GPU untuk pelatihan AI berubah menjadi penggunaan jaringan yang berkelanjutan di Akash masih harus dilihat. Secara historis, Akash telah menawarkan layanan pasar berbasis CPU dengan diskon 70-80% dibandingkan dengan alternatif terpusat, namun strategi penetapan harga ini belum secara signifikan mendorong adopsi. Aktivitas jaringan, diukur dengan sewa aktif, telah mencapai puncak, dengan rata-rata 33% komputasi, 16% memori, dan 13% utilitas penyimpanan pada kuartal kedua tahun 2023, impresif untuk adopsi on-chain namun mengindikasikan pasokan masih melebihi permintaan. Setengah tahun sejak peluncuran jaringan GPU, masih terlalu dini untuk penilaian definitif adopsi jangka panjang, meskipun tanda-tanda awal menunjukkan rata-rata 44% utilitas GPU, didorong terutama oleh permintaan untuk GPU berkualitas tinggi seperti A100, lebih dari 90% di antaranya telah disewakan.
Pengeluaran harian Akash hampir dua kali lipat sejak diperkenalkannya GPU, yang sebagian disebabkan oleh peningkatan penggunaan layanan lain, terutama CPU, tetapi terutama karena penggunaan GPU baru.
Harga bersaing dengan, atau dalam beberapa kasus lebih mahal dari, rekan terpusat seperti Lambda Cloud dan Vast.ai. Permintaan tinggi untuk GPU kelas atas, seperti H100 dan A100, berarti sebagian besar pemilik perangkat tersebut tidak tertarik untuk mencatatnya di pasar dengan harga yang kompetitif.
Meskipun keuntungan awal, hambatan adopsi tetap ada. Jaringan komputasi terdesentralisasi harus mengambil langkah lebih lanjut untuk menghasilkan permintaan dan pasokan, dengan tim-tim yang sedang menjelajahi cara terbaik untuk menarik pengguna baru. Misalnya, pada awal 2024, Akash melewati Proposal 240, meningkatkan emisi AKT untuk penyedia GPU untuk mendorong lebih banyak pasokan, terutama untuk GPU high-end. Tim-tim juga sedang mengerjakan model proof-of-concept untuk mendemonstrasikan kemampuan langsung jaringan mereka kepada pengguna potensial. Akash sedang melatih model-model dasarnya dan telah meluncurkan produk chatbot dan generasi gambar yang memanfaatkan GPU Akash. Demikian pula, io.net telah mengembangkan model difusi stabil dan meluncurkan fungsionalitas jaringan baru untuk lebih meniru kinerja jaringan dan skala.
Selain platform komputasi umum yang dapat memenuhi tuntutan kecerdasan buatan, sekelompok pemasok GPU AI profesional yang fokus pada pelatihan model pembelajaran mesin juga mulai muncul. Misalnya, Gensyn sedang 'mengkoordinasikan daya dan perangkat keras untuk membangun kecerdasan kolektif,' dengan filosofi bahwa 'jika seseorang ingin melatih sesuatu dan seseorang bersedia melatihnya, maka pelatihan ini harus diizinkan terjadi.'
Protokol ini melibatkan empat peserta utama: pengirim, solver, validator, dan whistleblower. Pengirim mengirimkan tugas dengan permintaan pelatihan ke jaringan. Tugas-tugas ini termasuk tujuan pelatihan, model yang akan dilatih, dan data pelatihan. Sebagai bagian dari proses pengiriman, pengirim perlu membayar biaya komputasi yang diperkirakan diperlukan oleh solver.
Setelah pengajuan, tugas diberikan kepada penyelesaian yang sebenarnya melakukan pelatihan model. Kemudian, penyelesaian mengajukan tugas yang sudah selesai kepada validator, yang bertanggung jawab untuk memeriksa pelatihan untuk memastikan bahwa itu diselesaikan dengan benar. Pelapor ditugaskan untuk memastikan validator bertindak jujur. Untuk memotivasi pelapor untuk berpartisipasi dalam jaringan, Gensyn berencana untuk secara teratur menawarkan bukti yang sengaja tidak benar, memberikan hadiah kepada pelapor yang menangkapnya.
Selain menyediakan komputasi untuk beban kerja terkait kecerdasan buatan, sebuah tawaran nilai kunci dari Gensyn adalah sistem verifikasinya, yang masih dalam pengembangan. Verifikasi diperlukan untuk memastikan bahwa komputasi eksternal oleh penyedia GPU dieksekusi dengan benar (yaitu, memastikan model pengguna dilatih sesuai keinginan mereka). Gensyn mengatasi masalah ini dengan pendekatan yang unik, menggunakan metode verifikasi baru yang disebut “bukti pembelajaran probabilistik, protokol tepat berbasis graf, dan permainan insentif gaya Truebit.” Ini adalah model pemecahan yang optimis yang memungkinkan validator mengonfirmasi bahwa solver telah menjalankan model dengan benar tanpa perlu sepenuhnya menjalankan ulang model mereka sendiri, sebuah proses yang mahal dan tidak efisien.
Selain metode verifikasi inovatifnya, Gensyn juga mengklaim lebih hemat biaya dibandingkan dengan alternatif terpusat dan pesaing mata uang kripto - menawarkan harga pelatihan ML hingga 80% lebih murah dari AWS, sambil melampaui proyek serupa seperti Truebit dalam uji coba.
Apakah hasil awal ini dapat direplikasi dalam skala besar di jaringan terdesentralisasi masih harus dilihat. Gensyn berharap dapat memanfaatkan kapasitas komputasi surplus dari penyedia seperti pusat data kecil, pengguna ritel, dan akhirnya perangkat mobile kecil seperti smartphone. Namun, seperti yang diakui tim Gensyn sendiri, bergantung pada penyedia komputasi heterogen memperkenalkan beberapa tantangan baru.
Untuk penyedia terpusat seperti Google Cloud dan Coreweave, biaya komputasi mahal, tetapi komunikasi antar komputasi (bandwidth dan laten) murah. Sistem ini dirancang untuk memfasilitasi komunikasi antar perangkat keras secepat mungkin. Gensyn mengganggu kerangka kerja ini dengan mengurangi biaya komputasi dengan memungkinkan siapa pun di dunia menawarkan GPU, tetapi pada saat yang sama meningkatkan biaya komunikasi, karena jaringan sekarang harus mengkoordinasikan pekerjaan komputasi di seluruh perangkat keras heterogen yang jauh. Gensyn belum diluncurkan, tetapi merupakan bukti konsep yang dapat dicapai saat membangun protokol pelatihan pembelajaran mesin terdesentralisasi.
Platform komputasi terdesentralisasi juga menawarkan kemungkinan untuk merancang metode penciptaan kecerdasan buatan. Bittensor adalah protokol komputasi terdesentralisasi yang dibangun di Substrate, berusaha menjawab pertanyaan, “Bagaimana kita mengubah kecerdasan buatan menjadi metode kolaboratif?” Bittensor bertujuan untuk mencapai desentralisasi dan komodifikasi generasi AI. Diluncurkan pada tahun 2021, ia berharap dapat memanfaatkan kekuatan model pembelajaran mesin kolaboratif untuk terus mengulang dan menghasilkan AI yang lebih baik.
Bittensor mengambil inspirasi dari Bitcoin, dengan mata uang aslinya, TAO, memiliki batas pasokan sebesar 21 juta dan siklus pengurangan setiap empat tahun (pengurangan pertama dijadwalkan pada tahun 2025). Berbeda dengan menggunakan Proof of Work untuk menghasilkan angka acak yang benar dan mendapatkan imbalan blok, Bittensor mengandalkan “Proof of Intelligence,” yang mengharuskan para penambang menjalankan model untuk menghasilkan output sebagai respons terhadap permintaan inferensi.
Mendorong Kecerdasan
Awalnya, Bittensor mengandalkan model Mixture of Experts (MoE) untuk menghasilkan output. Ketika permintaan inferensi diajukan, model MoE tidak bergantung pada model umum tetapi meneruskan permintaan ke model yang paling akurat untuk jenis input yang diberikan. Bayangkan membangun sebuah rumah, di mana Anda menyewa berbagai ahli untuk berbagai aspek proses konstruksi (misalnya, arsitek, insinyur, pelukis, pekerja konstruksi, dll.). MoE menerapkan ini pada model pembelajaran mesin, mencoba memanfaatkan output dari model yang berbeda berdasarkan input. Seperti yang dijelaskan oleh pendiri Bittensor, Ala Shaabana, ini seperti "berbicara dengan ruangan yang penuh dengan orang pintar untuk mendapatkan jawaban terbaik, daripada berbicara dengan satu orang." Karena tantangan dalam memastikan perutean yang benar, sinkronisasi pesan ke model yang benar, dan insentif, metode ini telah ditangguhkan hingga pengembangan proyek lebih lanjut.
Dalam jaringan Bittensor, ada dua partisipan utama: validator dan penambang. Validator mengirimkan permintaan inferensi ke penambang, meninjau output mereka, dan memberi peringkat berdasarkan kualitas respons mereka. Untuk memastikan peringkat mereka dapat diandalkan, validator diberi skor “vtrust” berdasarkan seberapa konsisten peringkat mereka dengan validator lainnya. Semakin tinggi skor vtrust seorang validator, semakin banyak emisi TAO yang mereka terima. Hal ini untuk mendorong validator mencapai konsensus tentang peringkat model dari waktu ke waktu, karena semakin banyak validator setuju tentang peringkat, semakin tinggi skor vtrust individu mereka.
Penambang, juga dikenal sebagai server, adalah peserta jaringan yang menjalankan model pembelajaran mesin yang sebenarnya. Mereka bersaing untuk memberikan output yang paling akurat untuk kueri validator, dan semakin akurat outputnya, semakin banyak emisi TAO yang mereka peroleh. Penambang bebas menghasilkan output ini sesuai keinginan. Misalnya, di masa depan, sangat mungkin bagi penambang Bittensor untuk sebelumnya melatih model di Gensyn dan menggunakannya untuk mendapatkan emisi TAO.
Hari ini, sebagian besar interaksi terjadi langsung antara validator dan penambang. Validator mengirimkan input ke penambang dan meminta output (yaitu, pelatihan model). Begitu validator mengajukan pertanyaan kepada penambang di jaringan dan menerima respons mereka, mereka menilai para penambang dan mengirimkan peringkat mereka ke jaringan.
Interaksi antara validator (mengandalkan PoS) dan penambang (mengandalkan Model Proof, sebuah bentuk PoW) dikenal sebagai konsensus Yuma. Ini bertujuan untuk memberikan insentif kepada penambang untuk menghasilkan output terbaik untuk mendapatkan emisi TAO dan memberikan insentif kepada validator untuk secara akurat menilai output penambang, mendapatkan skor vtrust yang lebih tinggi, dan meningkatkan imbalan TAO mereka, sehingga membentuk mekanisme konsensus untuk jaringan.
Subnet dan Aplikasi
Interaksi di Bittensor pada umumnya melibatkan validator mengirimkan permintaan kepada penambang dan mengevaluasi hasil keluaran mereka. Namun, seiring dengan peningkatan kualitas penambang kontribusi dan pertumbuhan kecerdasan jaringan secara keseluruhan, Bittensor sedang membuat lapisan aplikasi di atas tumpukan yang ada sehingga pengembang dapat membangun aplikasi yang mengakses jaringan Bittensor.
Pada Oktober 2023, Bittensor memperkenalkan subnets melalui upgrade Revolusi, mengambil langkah signifikan menuju pencapaian tujuan ini. Subnets adalah jaringan terpisah di Bittensor yang mendorong perilaku tertentu. Revolusi membuka jaringan bagi siapa pun yang tertarik untuk membuat subnets. Dalam beberapa bulan setelah diluncurkan, lebih dari 32 subnets telah diluncurkan, termasuk subnets untuk teks prompts, data scraping, generasi gambar, dan penyimpanan. Ketika subnets matang dan siap digunakan, pencipta subnet juga akan membuat integrasi aplikasi, memungkinkan tim untuk membangun aplikasi yang mengakses subnets tertentu. Beberapa aplikasi, seperti chatbots, pembuat gambar, bot balasan Twitter, dan pasar prediksi, memang ada tetapi tidak ada insentif formal selain pendanaan dari Yayasan Bittensor bagi validator untuk menerima dan meneruskan pertanyaan-pertanyaan ini.
Untuk penjelasan yang lebih jelas, di bawah ini adalah contoh bagaimana Bittensor mungkin berfungsi setelah aplikasi terintegrasi ke dalam jaringan.
Subnet menghasilkan TAO berdasarkan kinerja yang dievaluasi oleh jaringan root. Jaringan root, yang terletak di atas semua subnet, pada dasarnya bertindak sebagai subnet khusus dan dikelola oleh 64 validator subnet terbesar berdasarkan saham. Validator jaringan root meranking subnet berdasarkan kinerjanya dan secara berkala mengalokasikan emisi TAO ke subnet. Dengan cara ini, subnet individu bertindak sebagai penambang untuk jaringan root.
Visi Bittensor
Bittensor masih mengalami masa pertumbuhan saat memperluas fungsionalitas protokol untuk mendorong generasi kecerdasan di berbagai subnet. Para penambang terus merancang cara baru untuk menyerang jaringan demi lebih banyak imbalan TAO, misalnya dengan sedikit mengubah output inferensi yang sangat baik yang dijalankan oleh model mereka dan kemudian mengirimkan beberapa varian. Usulan tata kelola yang memengaruhi seluruh jaringan hanya dapat diajukan dan diimplementasikan oleh Triumvirate, yang terdiri sepenuhnya dari para pemegang saham dari Yayasan Opentensor (secara khusus, usulan memerlukan persetujuan dari Senat Bittensor, yang terdiri dari validator Bittensor, sebelum diimplementasikan). Tokenomika proyek sedang dimodifikasi untuk meningkatkan insentif untuk penggunaan TAO lintas-subnet. Proyek ini juga dengan cepat mendapatkan ketenaran karena pendekatannya yang unik, dengan CEO salah satu situs AI paling populer, HuggingFace, menyatakan bahwa Bittensor seharusnya menambahkan sumber dayanya ke situs.
Dalam artikel terbaru berjudul “Paradigma Bittensor” yang dipublikasikan oleh pengembang inti, tim menjabarkan visi Bittensor untuk akhirnya menjadi “agnostik terhadap apa yang diukur.” Secara teoritis, ini bisa memungkinkan Bittensor untuk mengembangkan subnet yang mendorong berbagai jenis perilaku yang didukung oleh TAO. Masih ada batasan praktis yang cukup signifikan—terutama, membuktikan bahwa jaringan-jaringan ini dapat berkembang untuk menangani berbagai proses dan insentif potensial mendorong kemajuan di luar produk-produk terpusat.
Bagian di atas memberikan gambaran mendalam tentang berbagai jenis protokol komputasi kecerdasan buatan (AI) terdesentralisasi yang saat ini sedang dikembangkan. Dalam tahap awal pengembangan dan adopsi, mereka membentuk dasar bagi sebuah ekosistem yang pada akhirnya bisa memfasilitasi penciptaan "blok bangunan AI," mirip dengan konsep "money Legos" dalam DeFi. Komposabilitas blockchain tanpa izin memungkinkan setiap protokol untuk dibangun di atas yang lain, menciptakan ekosistem AI terdesentralisasi yang lebih komprehensif.
Sebagai contoh, inilah bagaimana Akash, Gensyn, dan Bittensor mungkin berinteraksi untuk merespons permintaan inferensi.
Penting untuk memahami bahwa ini hanyalah contoh dari apa yang bisa terjadi di masa depan, bukan representasi dari ekosistem saat ini, kemitraan yang ada, atau hasil yang potensial. Keterbatasan interoperabilitas dan pertimbangan lain yang dijelaskan di bawah ini secara signifikan membatasi kemungkinan integrasi saat ini. Selain itu, fragmentasi likuiditas dan kebutuhan untuk menggunakan beberapa token bisa merugikan pengalaman pengguna, seperti yang dicatat oleh para pendiri Akash dan Bittensor.
Selain komputasi, beberapa layanan infrastruktur terdesentralisasi lainnya telah diperkenalkan untuk mendukung ekosistem AI yang muncul dalam ruang kripto. Mendaftar semua ini di luar cakupan laporan ini, tetapi beberapa contoh menarik dan menggambarkan termasuk:
Secara keseluruhan, contoh-contoh ini menunjukkan peluang yang hampir tak terbatas untuk mengeksplorasi model pasar terdesentralisasi yang mendukung model AI atau infrastruktur periferal yang diperlukan untuk mengembangkannya. Saat ini, sebagian besar proyek ini berada dalam tahap proof-of-concept dan memerlukan penelitian dan pengembangan lebih lanjut untuk membuktikan bahwa mereka dapat beroperasi pada skala yang diperlukan untuk menyediakan layanan AI yang komprehensif.
Produk komputasi terdesentralisasi masih dalam tahap awal pengembangan. Mereka baru saja mulai meluncurkan kemampuan komputasi mutakhir, mampu melatih model kecerdasan buatan paling kuat dalam produksi. Untuk mendapatkan pangsa pasar yang signifikan, mereka perlu menunjukkan keunggulan nyata dibandingkan dengan alternatif terpusat. Pemicu potensial untuk adopsi lebih luas termasuk:
Kontrak pintar adalah landasan dari setiap ekosistem blockchain. Mereka secara otomatis dieksekusi di bawah serangkaian kondisi tertentu, mengurangi atau menghilangkan kebutuhan akan pihak ketiga yang dipercayai, sehingga memungkinkan penciptaan aplikasi terdesentralisasi yang kompleks, seperti yang ada di DeFi. Namun, fungsionalitas kontrak pintar masih terbatas karena mereka beroperasi berdasarkan parameter yang telah ditetapkan yang harus diperbarui.
Sebagai contoh, kontrak pintar diterapkan untuk protokol peminjaman/peminjaman, yang berisi spesifikasi kapan posisi harus dilikuidasi berdasarkan rasio pinjaman ke nilai tertentu. Meskipun berguna di lingkungan statis, kontrak pintar ini memerlukan pembaruan konstan untuk beradaptasi dengan perubahan dalam toleransi risiko dalam situasi dinamis, menimbulkan tantangan bagi kontrak yang tidak dikelola melalui proses terpusat. Sebagai contoh, DAO yang mengandalkan proses pengaturan terdesentralisasi mungkin tidak bereaksi dengan cukup cepat terhadap risiko sistemik.
Mengintegrasikan kecerdasan buatan (yaitu, model pembelajaran mesin) ke dalam kontrak pintar adalah cara potensial untuk meningkatkan fungsionalitas, keamanan, dan efisiensi sambil meningkatkan pengalaman pengguna secara keseluruhan. Namun, integrasi ini juga memperkenalkan risiko tambahan, karena tidak mungkin untuk memastikan model-model yang mendasari kontrak pintar ini tidak akan dieksploitasi atau gagal menginterpretasikan situasi long-tail (diberikan kelangkaan masukan data, situasi long-tail sulit bagi model untuk dilatih).
Machine learning memerlukan perhitungan yang signifikan untuk menjalankan model-model kompleks, sehingga menjadi tidak praktis untuk langsung menjalankan model AI dalam kontrak pintar karena biaya tinggi. Sebagai contoh, protokol DeFi yang menawarkan model optimisasi hasil akan kesulitan untuk menjalankan model-model ini on-chain tanpa menimbulkan biaya Gas yang melarang. Salah satu solusinya adalah meningkatkan kemampuan komputasi dari blockchain yang mendasarinya. Namun, hal ini juga meningkatkan persyaratan untuk validator-chain, yang berpotensi mengorbankan desentralisasi. Sebaliknya, beberapa proyek sedang menjelajahi penggunaan zkML untuk memverifikasi output secara tidak dapat dipercaya tanpa memerlukan komputasi on-chain yang intensif.
Sebuah contoh umum yang menggambarkan kegunaan zkML adalah ketika pengguna memerlukan orang lain untuk menjalankan data melalui model dan memverifikasi bahwa rekan mereka memang telah menjalankan model yang benar. Pengembang yang menggunakan penyedia komputasi terdesentralisasi untuk melatih model mereka mungkin khawatir tentang penyedia ini memotong biaya dengan menggunakan model-model yang lebih murah yang menghasilkan output dengan perbedaan yang hampir tidak terlihat. zkML memungkinkan penyedia komputasi untuk menjalankan data melalui model mereka dan kemudian menghasilkan bukti yang dapat diverifikasi di rantai, membuktikan bahwa output model untuk input yang diberikan benar. Dalam skenario ini, penyedia model memperoleh keuntungan tambahan dengan dapat menawarkan model mereka tanpa harus mengungkapkan bobot yang mendasari yang menghasilkan output.
Kebalikannya juga mungkin terjadi. Jika pengguna ingin menjalankan model pada data mereka tetapi tidak ingin memberikan akses proyek model ke data mereka karena kekhawatiran privasi (misalnya, dalam pemeriksaan medis atau informasi bisnis properti), mereka dapat menjalankan model pada data mereka tanpa berbagi data, dan kemudian memverifikasi melalui bukti bahwa mereka telah menjalankan model yang benar. Kemungkinan ini sangat memperluas ruang desain untuk mengintegrasikan fungsionalitas AI dan kontrak pintar dengan mengatasi kendala komputasi yang menakutkan.
Dengan tahap awal dari bidang zkML, pengembangan terutama difokuskan pada membangun infrastruktur dan alat yang dibutuhkan tim untuk mengonversi model dan output mereka menjadi bukti yang dapat diverifikasi di rantai. Produk-produk ini mengabstraksi aspek zero-knowledge sebanyak mungkin.
EZKL dan Giza adalah dua proyek yang membangun alat-alat tersebut dengan menyediakan bukti-bukti yang dapat diverifikasi dari eksekusi model pembelajaran mesin. Kedua proyek ini membantu tim dalam membangun model pembelajaran mesin untuk memastikan bahwa model-model ini dapat dieksekusi dengan cara yang memungkinkan hasilnya diverifikasi secara on-chain dengan cara yang dapat dipercaya. Kedua proyek ini menggunakan Open Neural Network Exchange (ONNX) untuk mengonversi model-model pembelajaran mesin yang ditulis dalam bahasa umum seperti TensorFlow dan Pytorch ke dalam format standar. Mereka kemudian menghasilkan versi-versi dari model-model ini yang juga menghasilkan bukti zk saat dieksekusi. EZKL adalah open-source, menghasilkan zk-SNARKs, sementara Giza adalah closed-source, menghasilkan zk-STARKs. Kedua proyek ini saat ini hanya kompatibel dengan EVM.
Dalam beberapa bulan terakhir, EZKL telah membuat kemajuan signifikan dalam meningkatkan solusi zkML, terutama berfokus pada pengurangan biaya, peningkatan keamanan, dan percepatan generasi bukti. Sebagai contoh, pada November 2023, EZKL mengintegrasikan perpustakaan GPU sumber terbuka yang baru yang mengurangi waktu bukti agregasi sebesar 35%; pada Januari, EZKL merilis Lilith, solusi perangkat lunak untuk mengintegrasikan klaster komputasi berkinerja tinggi dan mengatur sistem pekerjaan simultan saat menggunakan bukti EZKL. Keunikan Giza terletak pada penyediaan alat untuk membuat model pembelajaran mesin yang dapat diverifikasi dan merencanakan untuk menerapkan versi web3 dari Hugging Face, membuka pasar pengguna untuk kolaborasi zkML dan berbagi model, dan akhirnya mengintegrasikan produk komputasi terdesentralisasi. Pada Januari, EZKL memublikasikan evaluasi benchmark yang membandingkan kinerja EZKL, Giza, dan RiscZero (sebagaimana dijelaskan di bawah), menampilkan waktu bukti yang lebih cepat dan penggunaan memori.
Modulus Labs saat ini sedang mengembangkan teknologi bukti zero-knowledge (zk) baru yang dikhususkan untuk model AI. Modulus merilis sebuah paper berjudul “Intelligent Cost,” yang menyiratkan bahwa menjalankan model AI on-chain mengakibatkan biaya yang terlalu tinggi. Paper ini, yang diterbitkan pada Januari 2023, melakukan benchmark terhadap sistem bukti zk yang ada untuk mengidentifikasi peningkatan dalam kemampuan bukti zk dan hambatan dalam model AI. Paper ini mengungkapkan bahwa produk-produk saat ini terlalu mahal dan tidak efisien untuk aplikasi AI berskala besar. Melanjutkan penelitian awal, Modulus meluncurkan Remainder pada bulan November, sebuah zk prover khusus yang bertujuan untuk mengurangi biaya dan waktu bukti untuk model AI, membuat proyek-proyek tersebut ekonomis untuk integrasi berskala besar ke dalam smart contracts. Karya mereka bersifat properti, sehingga tidak mungkin untuk dijadikan benchmark terhadap solusi-solusi yang disebutkan, namun baru-baru ini disebutkan dalam pos blog Vitalik tentang kriptografi dan kecerdasan buatan.
Pengembangan alat dan infrastruktur sangat penting untuk pertumbuhan masa depan ruang zkML, karena dapat secara signifikan mengurangi gesekan yang terlibat dalam penyebaran perhitungan off-chain yang dapat diverifikasi dan kebutuhan untuk tim zk. Membuat antarmuka yang aman untuk praktisi pembelajaran mesin non-kripto-natif membawa model mereka ke on-chain akan memungkinkan aplikasi untuk bereksperimen dengan kasus penggunaan yang benar-benar baru. Selain itu, alat-alat ini mengatasi hambatan utama untuk adopsi yang lebih luas zkML: kurangnya pengembang yang berpengetahuan tertarik untuk bekerja di persimpangan pengetahuan, pembelajaran mesin, dan kriptografi nol pengetahuan.
Solusi lain dalam pengembangan, disebut sebagai "coprocessors" (termasuk RiscZero, Axiom, dan Ritual), melayani berbagai peran, termasuk memverifikasi perhitungan off-chain on-chain. Seperti EZKL, Giza, dan Modulus, tujuan mereka adalah untuk mengabstraksi proses pembuatan bukti zk sepenuhnya, menciptakan mesin virtual tanpa pengetahuan yang mampu mengeksekusi program off-chain dan menghasilkan bukti yang dapat diverifikasi secara on-chain. RiscZero dan Axiom melayani model AI sederhana sebagai koprosesor tujuan umum, sementara Ritual dibangun khusus untuk digunakan dengan model AI.
Pertama kali Ritual, Infernet, mencakup Infernet SDK yang memungkinkan pengembang mengirimkan permintaan inferensi ke jaringan dan menerima output serta bukti opsional sebagai balasannya. Node Infernet memproses komputasi di luar rantai ini sebelum mengembalikan output. Sebagai contoh, sebuah DAO bisa mendirikan proses yang memastikan semua proposal tata kelola baru memenuhi syarat tertentu sebelum diserahkan. Setiap kali proposal baru diajukan, kontrak tata kelola memicu permintaan inferensi melalui Infernet, memanggil model AI yang dilatih khusus untuk tata kelola DAO. Model ini meninjau proposal untuk memastikan semua standar yang diperlukan terpenuhi dan mengembalikan output serta bukti untuk menyetujui atau menolak pengajuan proposal.
Selama setahun ke depan, tim Ritual berencana untuk memperkenalkan lebih banyak fitur, membentuk lapisan infrastruktur yang dikenal sebagai superchain Ritual. Banyak proyek yang dibahas dapat diintegrasikan sebagai penyedia layanan ke dalam Ritual. Tim Ritual telah mengintegrasikan EZKL untuk pembuatan bukti dan mungkin segera menambah fitur dari penyedia terkemuka lainnya. Node Infernet di Ritual juga dapat memanfaatkan GPU Akash atau io.net dan model kueri yang dilatih di subnet Bittensor. Tujuan utama mereka adalah menjadi penyedia infrastruktur AI terbuka yang disukai, menawarkan layanan untuk pembelajaran mesin dan tugas-tugas AI lainnya untuk setiap jaringan dan beban kerja.
zkML membantu untuk mendamaikan dikotomi antara blockchain, yang secara inheren terbatas sumber dayanya, dan kecerdasan buatan, yang membutuhkan sumber daya komputasi dan data yang signifikan. Seperti yang dikatakan pendiri Giza, 'kasus penggunaannya sangat kaya... Ini agak seperti bertanya apa kasus penggunaan untuk kontrak pintar di awal Ethereum... Apa yang kami lakukan hanyalah memperluas kasus penggunaan untuk kontrak pintar.' Namun, seperti yang dicatat, perkembangan saat ini terutama terjadi pada level alat dan infrastruktur. Aplikasi masih berada dalam fase eksplorasi, dengan tim menghadapi tantangan untuk membuktikan bahwa nilai yang dihasilkan dengan menerapkan model dengan zkML melebihi kompleksitas dan biayanya.
Aplikasi saat ini termasuk:
zkML tetap bersifat eksperimental, dengan sebagian besar proyek berfokus pada membangun primitif infrastruktur dan bukti konsep. Tantangan saat ini termasuk biaya komputasi, batasan memori, kompleksitas model, keterbatasan alat dan infrastruktur, dan talenta pengembang. Singkatnya, masih banyak pekerjaan yang harus dilakukan sebelum zkML dapat diimplementasikan dalam skala yang diperlukan oleh produk konsumen.
Namun, seiring dengan berkembangnya bidang ini dan penyelesaian terhadap keterbatasan-keterbatasan ini, zkML akan menjadi komponen kunci dalam mengintegrasikan kecerdasan buatan dengan kriptografi. Pada dasarnya, zkML berjanji untuk membawa skala komputasi off-chain ke on-chain, sambil tetap mempertahankan jaminan keamanan yang sama atau serupa seperti berjalan on-chain. Namun, sebelum visi ini terwujud, pengguna awal teknologi akan terus harus menyeimbangkan privasi dan keamanan zkML dengan efisiensi dari alternatif-alternatif.
Agen Kecerdasan Buatan
Salah satu integrasi yang paling menarik dari kecerdasan buatan dan mata uang kripto adalah eksperimen yang sedang berlangsung dengan agen kecerdasan buatan. Agen adalah robot otonom yang mampu menerima, menginterpretasikan, dan mengeksekusi tugas menggunakan model AI. Ini bisa bervariasi mulai dari memiliki asisten pribadi yang tersedia setiap saat, disesuaikan dengan preferensi Anda, hingga menyewa agen keuangan untuk mengelola dan menyesuaikan portofolio investasi Anda berdasarkan preferensi risiko Anda.
Mengingat bahwa cryptocurrency menawarkan infrastruktur pembayaran tanpa izin dan tanpa kepercayaan, agen dan cryptocurrency dapat diintegrasikan dengan baik. Setelah dilatih, agen akan memiliki dompet, memungkinkan mereka untuk melakukan transaksi sendiri menggunakan kontrak pintar. Misalnya, agen saat ini dapat mengikis informasi di internet dan kemudian berdagang di pasar prediksi berdasarkan model.
Morpheus adalah salah satu proyek agen open-source terbaru yang diluncurkan pada tahun 2024 di Ethereum dan Arbitrum. White paper-nya diterbitkan secara anonim pada September 2023, memberikan dasar untuk pembentukan dan pembangunan komunitas, termasuk tokoh-tokoh terkemuka seperti Erik Vorhees. White paper ini mencakup protokol agen pintar yang dapat diunduh, LLM open-source yang dapat dijalankan secara lokal, dikelola oleh dompet pengguna, dan berinteraksi dengan kontrak pintar. Ini menggunakan peringkat kontrak pintar untuk membantu agen menentukan kontrak pintar mana yang dapat berinteraksi dengan aman berdasarkan kriteria seperti jumlah transaksi yang diproses.
Buku putih ini juga menyediakan kerangka kerja untuk membangun jaringan Morpheus, termasuk struktur insentif dan infrastruktur yang diperlukan untuk menjalankan protokol agen pintar. Ini termasuk insentif bagi kontributor untuk membangun front-end untuk berinteraksi dengan agen, API bagi pengembang untuk membangun agen plug-in untuk interaksi timbal balik, dan solusi cloud bagi pengguna untuk mengakses komputasi dan penyimpanan yang diperlukan untuk menjalankan agen di perangkat edge. Pendanaan awal proyek diluncurkan pada awal Februari, dengan protokol penuh diharapkan akan diluncurkan pada kuartal kedua 2024.
Decentralized Autonomous Infrastructure Network (DAIN) adalah protokol infrastruktur agen baru yang membangun ekonomi agen-ke-agen di Solana. Tujuan DAIN adalah memungkinkan agen dari berbagai perusahaan untuk berinteraksi secara mulus satu sama lain melalui API umum, membuka ruang desain yang signifikan untuk agen kecerdasan buatan, berfokus pada agen yang dapat berinteraksi dengan produk web2 dan web3. Pada bulan Januari, DAIN mengumumkan kemitraan pertamanya dengan Asset Shield, memungkinkan pengguna untuk menambahkan "penandatangan agen" ke multisigs mereka, yang mampu mengartikan transaksi dan menyetujui/menolak berdasarkan aturan yang ditetapkan pengguna.
Fetch.AI adalah salah satu protokol agen AI yang diterapkan secara early dan telah mengembangkan ekosistem untuk membangun, menerapkan, dan menggunakan agen on-chain menggunakan token FET dan dompet Fetch.AI. Protokol ini menawarkan rangkaian alat dan aplikasi yang komprehensif untuk menggunakan agen, termasuk fungsi dompet-in untuk berinteraksi dengan dan memesan agen.
Autonolas, yang didirikan oleh mantan anggota tim Fetch, adalah pasar terbuka untuk membuat dan menggunakan agen AI terdesentralisasi. Autonolas juga menyediakan serangkaian alat bagi pengembang untuk membangun agen AI yang di-host di luar rantai yang dapat terhubung ke beberapa blockchain, termasuk Polygon, Ethereum, Gnosis Chain, dan Solana. Saat ini, mereka memiliki beberapa produk konsep bukti agen aktif, termasuk untuk pasar prediksi dan tata kelola DAO.
SingularityNet sedang membangun pasar terdesentralisasi untuk agen kecerdasan buatan, di mana agen kecerdasan buatan khusus dapat dikerahkan, yang dapat disewa oleh orang lain atau agen untuk melakukan tugas-tugas kompleks. Perusahaan lain seperti AlteredStateMachine sedang membangun integrasi agen kecerdasan buatan dengan NFT. Pengguna mencetak NFT dengan atribut-atribut acak, yang memberi mereka kelebihan dan kekurangan dalam tugas-tugas yang berbeda. Agen-agen ini kemudian dapat dilatih untuk meningkatkan atribut-atribut tertentu untuk digunakan dalam permainan, DeFi, atau sebagai asisten virtual dan diperdagangkan dengan pengguna lain.
Secara keseluruhan, proyek-proyek ini memvisualisasikan suatu ekosistem masa depan dari agen-agen yang mampu bekerja secara kolaboratif bukan hanya untuk melakukan tugas-tugas tetapi juga untuk membantu membangun kecerdasan buatan umum. Agen-agen yang benar-benar kompleks akan memiliki kemampuan untuk menyelesaikan tugas-tugas pengguna secara otonom. Sebagai contoh, agen-agen yang sepenuhnya otonom akan mampu menemukan cara untuk mempekerjakan agen lain untuk mengintegrasikan sebuah API, kemudian mengeksekusi suatu tugas tanpa harus memastikan bahwa agen tersebut sudah terintegrasi dengan API-Api eksternal (seperti situs pemesanan perjalanan) sebelum penggunaan. Dari sudut pandang pengguna, tidak perlu memeriksa apakah suatu agen dapat menyelesaikan suatu tugas, karena agen tersebut dapat menentukannya sendiri.
Pada Juli 2023, Lightning Labs meluncurkan implementasi konsep bukti untuk memanfaatkan agen di Jaringan Lightning, yang dijuluki paket Bitcoin oleh LangChain. Produk ini sangat menarik karena bertujuan untuk menangani masalah yang semakin parah di dunia Web 2—kunci API yang tergabung dan mahal dari aplikasi web.
LangChain mengatasi masalah ini dengan menyediakan pengembang dengan serangkaian alat yang memungkinkan agen untuk membeli, menjual, dan menyimpan Bitcoin, serta untuk mengambil kunci API dan mengirim pembayaran mikro. Pada rel pembayaran tradisional, pembayaran mikro sangat mahal karena biaya, tetapi di Jaringan Lightning, agen dapat mengirim sejumlah pembayaran mikro setiap hari dengan biaya minimal. Ketika digunakan bersama dengan kerangka kerja API metering pembayaran L402 LangChain, perusahaan dapat menyesuaikan biaya akses API mereka berdasarkan peningkatan dan penurunan penggunaan, daripada menetapkan standar tunggal yang mahal.
Di masa depan, aktivitas rantai akan didorong secara dominan oleh interaksi antara agen dan agen, yang memerlukan mekanisme untuk memastikan agen dapat berinteraksi satu sama lain tanpa biaya yang melarang. Contoh awal ini menunjukkan potensi penggunaan agen pada rel pembayaran tanpa izin dan efisien secara ekonomi, membuka kemungkinan untuk pasar dan interaksi ekonomi baru.
Bidang agen masih dalam tahap awal. Proyek-proyek baru saja mulai meluncurkan agen fungsional yang mampu menangani tugas-tugas sederhana—akses biasanya terbatas pada pengembang dan pengguna berpengalaman. Namun, seiring berjalannya waktu, salah satu dampak paling signifikan dari agen kecerdasan buatan pada mata uang kripto akan menjadi peningkatan pengalaman pengguna di semua sektor. Transaksi akan mulai beralih dari berbasis klik menjadi berbasis teks, memungkinkan pengguna berinteraksi dengan agen on-chain melalui antarmuka percakapan. Tim seperti Dawn Wallet sudah meluncurkan dompet chatbot, memungkinkan pengguna berinteraksi on-chain.
Selain itu, masih belum jelas bagaimana agen akan beroperasi di Web 2, karena rel keuangan mengandalkan lembaga perbankan yang diatur yang tidak dapat beroperasi 24/7 atau memfasilitasi transaksi lintas batas yang lancar. Seperti yang disorot oleh Lyn Alden, kurangnya pengembalian dana dan kemampuan untuk menangani mikrotransaksi membuat rel mata uang kripto terutama menarik dibandingkan dengan kartu kredit. Namun, jika agen menjadi medium yang lebih umum untuk transaksi, penyedia pembayaran dan aplikasi yang ada kemungkinan akan cepat beradaptasi, mengimplementasikan infrastruktur yang diperlukan untuk beroperasi pada rel keuangan yang ada, sehingga mengurangi beberapa manfaat menggunakan mata uang kripto.
Saat ini, agen mungkin terbatas pada transaksi mata uang kripto deterministik, di mana input tertentu menjamin output tertentu. Kedua model telah menguraikan kemampuan agen ini untuk mencari tahu cara melakukan tugas kompleks, dan alat-alat sedang memperluas rentang tugas yang dapat mereka selesaikan, yang semuanya memerlukan pengembangan lebih lanjut. Agar agen kripto menjadi berguna di luar kasus penggunaan mata uang kripto on-chain yang baru, integrasi lebih luas dan penerimaan mata uang kripto sebagai bentuk pembayaran, bersama dengan kejelasan regulasi, diperlukan. Namun, saat komponen-komponen ini berkembang, agen-agen siap untuk menjadi salah satu konsumen terbesar dari solusi komputasi terdesentralisasi dan zkML, secara otonom menerima dan menyelesaikan setiap tugas dengan cara yang tidak deterministik.
AI memperkenalkan inovasi yang sama ke mata uang kripto yang telah kita lihat dalam web2, meningkatkan segalanya mulai dari pengembangan infrastruktur hingga pengalaman pengguna dan aksesibilitas. Namun, proyek-proyek masih berada dalam tahap awal pengembangan, dan integrasi mata uang kripto dan AI dalam jangka pendek akan didorong terutama oleh integrasi di luar rantai.
Produk seperti Copilot diatur untuk “meningkatkan efisiensi pengembang hingga 10x,” dan aplikasi Layer 1 dan DeFi telah meluncurkan platform pengembangan yang dibantu AI bekerja sama dengan perusahaan-perusahaan besar seperti Microsoft. Perusahaan seperti Cub3.ai dan Test Machine sedang mengembangkan integrasi AI untuk pemeriksaan kontrak pintar dan pemantauan ancaman real-time untuk meningkatkan keamanan on-chain. Chatbot LLM sedang dilatih dengan data on-chain, dokumentasi protokol, dan aplikasi untuk memberikan pengguna aksesibilitas dan pengalaman pengguna yang ditingkatkan.
Tantangan untuk integrasi yang lebih maju yang benar-benar memanfaatkan teknologi yang mendasari cryptocurrency tetap membuktikan bahwa menerapkan solusi AI on-chain layak secara teknis dan ekonomi. Pengembangan komputasi terdesentralisasi, zkML, dan agen AI menunjukkan vertikal yang menjanjikan yang meletakkan dasar bagi masa depan cryptocurrency dan AI yang saling berhubungan secara mendalam.
Kemunculan blockchain publik menandai kemajuan yang mendalam dalam sejarah ilmu komputer, sementara perkembangan kecerdasan buatan memiliki dampak signifikan pada dunia kita. Teknologi blockchain menawarkan templat baru untuk penyelesaian transaksi, penyimpanan data, dan desain sistem, sedangkan kecerdasan buatan mewakili revolusi dalam komputasi, analisis, dan pengiriman konten. Inovasi di industri ini sedang melepaskan kasus penggunaan baru yang dapat mempercepat adopsi kedua sektor dalam beberapa tahun mendatang. Laporan ini meneliti integrasi terus-menerus dari kripto dan kecerdasan buatan, berfokus pada kasus penggunaan baru yang bertujuan untuk menjembatani kesenjangan antara keduanya dan memanfaatkan kekuatan mereka. Secara khusus, melihat proyek-proyek yang mengembangkan protokol komputasi terdesentralisasi, infrastruktur pembelajaran mesin pengetahuan nol (zkML), dan agen kecerdasan buatan.
Mata Uang Kripto menawarkan lapisan penyelesaian yang bersifat tanpa izin, tanpa kepercayaan, dan dapat disusun untuk kecerdasan buatan, membuka kemungkinan seperti akses yang lebih mudah ke perangkat keras melalui sistem komputasi terdesentralisasi, membangun agen kecerdasan buatan yang mampu menjalankan tugas kompleks yang membutuhkan pertukaran nilai, dan mengembangkan identitas dan solusi provenans untuk melawan serangan Sybil dan deepfakes. Kecerdasan buatan membawa banyak manfaat yang sama seperti yang terlihat di Web 2.0 ke mata uang kripto, termasuk pengalaman pengguna dan pengembang yang ditingkatkan melalui model bahasa besar seperti ChatGPT dan Copilot, dan potensi fungsionalitas dan otomatisasi yang signifikan untuk kontrak pintar. Blockchain menyediakan lingkungan yang transparan dan kaya data yang diperlukan untuk kecerdasan buatan, meskipun daya komputasi terbatas dari blockchain adalah hambatan utama untuk integrasi langsung dari model kecerdasan buatan.
Eksperimen dan adopsi akhirnya dalam percampuran mata uang kripto dan AI didorong oleh kekuatan yang sama yang mendorong kasus penggunaan paling menjanjikan untuk mata uang kripto: akses ke lapisan koordinasi tanpa izin dan tanpa kepercayaan, memfasilitasi transfer nilai yang lebih baik. Mengingat potensi besar, para pemangku kepentingan di bidang ini perlu memahami cara mendasar di mana teknologi ini berpotongan.
Kecerdasan Buatan adalah penggunaan komputasi dan mesin untuk meniru kemampuan penalaran dan pemecahan masalah manusia.
Jaringan Saraf adalah metode pelatihan model kecerdasan buatan. Mereka menjalankan input melalui lapisan algoritmik diskrit, menyempurnakannya hingga output yang diinginkan dihasilkan. Jaringan saraf terdiri dari persamaan dengan bobot yang dapat disesuaikan untuk mengubah output. Mereka mungkin memerlukan data dan komputasi yang ekstensif untuk pelatihan untuk memastikan output yang akurat. Ini adalah salah satu cara paling umum untuk mengembangkan model AI (misalnya, ChatGPT bergantung pada proses jaringan saraf berbasis Transformers).
Pelatihan adalah proses pengembangan jaringan saraf dan model AI lainnya. Ini memerlukan jumlah data yang signifikan untuk melatih model agar dapat menginterpretasikan input dengan benar dan menghasilkan output yang akurat. Selama pelatihan, bobot persamaan model terus dimodifikasi hingga output yang memuaskan dihasilkan. Pelatihan dapat sangat mahal. Misalnya, ChatGPT menggunakan puluhan ribu GPU miliknya sendiri untuk memproses data. Tim dengan sumber daya yang lebih sedikit sering bergantung pada penyedia komputasi khusus, seperti Amazon Web Services, Azure, dan penyedia Google Cloud.
Inferensi adalah penggunaan aktual dari model AI untuk mendapatkan output atau hasil (misalnya, menggunakan ChatGPT untuk membuat garis besar untuk sebuah makalah tentang persilangan mata uang kripto dan AI). Inferensi digunakan sepanjang proses pelatihan dan dalam produk akhir. Karena biaya komputasi, bahkan setelah pelatihan selesai, biaya operasional mereka bisa tinggi, meskipun intensitas komputasinya lebih rendah daripada pelatihan.
Zero-Knowledge Proofs (ZKP) memungkinkan verifikasi pernyataan tanpa mengungkapkan informasi yang mendasarinya. Ini berguna dalam cryptocurrency karena dua alasan utama: 1) Privasi dan 2) Penskalaan. Untuk privasi, ini memungkinkan pengguna untuk bertransaksi tanpa mengungkapkan informasi sensitif (misalnya, berapa banyak ETH dalam dompet). Untuk penskalaan, ini memungkinkan komputasi off-chain dibuktikan secara on-chain lebih cepat daripada mengeksekusi ulang komputasi. Hal ini memungkinkan blockchain dan aplikasi untuk menjalankan perhitungan murah off-chain dan kemudian memverifikasi mereka on-chain. Untuk informasi lebih lanjut tentang pengetahuan nol dan perannya dalam Mesin Virtual Ethereum, lihat laporan Christine Kim tentang zkEVM: Masa Depan Skalabilitas Ethereum.
Proyek-proyek yang mengintegrasikan kecerdasan buatan dan mata uang kripto masih membangun infrastruktur dasar yang diperlukan untuk mendukung interaksi kecerdasan buatan on-chain dalam skala besar.
Pasar komputasi terdesentralisasi sedang muncul untuk menyediakan perangkat keras fisik yang sangat dibutuhkan untuk melatih dan menafsirkan model AI, terutama dalam bentuk Unit Pemrosesan Grafis (GPUs). Pasar dua sisi ini menghubungkan orang yang menyewakan dan mencari untuk menyewa komputasi, memfasilitasi transfer nilai dan verifikasi perhitungan. Dalam komputasi terdesentralisasi, beberapa subkategori yang menawarkan fungsionalitas tambahan sedang muncul. Selain pasar bilateral, laporan ini juga meninjau penyedia pelatihan pembelajaran mesin yang menawarkan pelatihan yang dapat diverifikasi dan penyempurnaan output, serta proyek-proyek yang didedikasikan untuk menghubungkan komputasi dan generasi model untuk memungkinkan AI, sering disebut sebagai jaringan insentif cerdas.
zkML merupakan area fokus yang sedang berkembang untuk proyek-proyek yang bertujuan untuk memberikan output model yang dapat diverifikasi on-chain secara ekonomis dan tepat waktu. Proyek-proyek ini pada umumnya memungkinkan aplikasi untuk menangani permintaan komputasi berat off-chain, kemudian memposting output yang dapat diverifikasi on-chain, membuktikan bahwa beban kerja off-chain telah selesai dan akurat. zkML saat ini mahal dan memakan waktu, namun semakin banyak digunakan sebagai solusi. Hal ini terbukti dari jumlah integrasi yang semakin meningkat antara penyedia zkML dan aplikasi DeFi/gaming yang ingin memanfaatkan model AI.
Pasokan komputasi yang cukup dan kemampuan untuk memverifikasi komputasi on-chain membuka pintu bagi agen AI on-chain. Agen adalah model-model terlatih yang mampu mengeksekusi permintaan atas nama pengguna. Agen menawarkan kesempatan untuk secara signifikan meningkatkan pengalaman on-chain, memungkinkan pengguna untuk mengeksekusi transaksi kompleks dengan mudah hanya dengan berbicara dengan chatbot. Namun, saat ini, proyek agen masih difokuskan pada pengembangan infrastruktur dan alat untuk penyebaran yang mudah dan cepat.
Kecerdasan Buatan membutuhkan komputasi yang luas untuk melatih model dan menjalankan inferensi. Selama dekade terakhir, ketika model-model menjadi semakin kompleks, permintaan akan komputasi telah tumbuh secara eksponensial. Sebagai contoh, OpenAI mengamati bahwa dari tahun 2012 hingga 2018, permintaan komputasi untuk model-modelnya meningkat dua kali lipat setiap dua tahun, beralih menjadi dua kali lipat setiap tiga setengah bulan. Hal ini menyebabkan lonjakan permintaan GPU, dengan beberapa penambang mata uang kripto bahkan mengubah penggunaan GPU mereka untuk menyediakan layanan komputasi awan. Saat persaingan untuk akses komputasi semakin intensif dan biaya meningkat, beberapa proyek memanfaatkan teknologi kriptografi untuk menawarkan solusi komputasi terdesentralisasi. Mereka menyediakan komputasi on-demand dengan harga yang kompetitif, memungkinkan tim untuk melatih dan menjalankan model-model dengan biaya yang terjangkau. Dalam beberapa kasus, kompromi mungkin melibatkan kinerja dan keamanan.
Permintaan untuk GPU terbaru (misalnya, yang diproduksi oleh Nvidia) sangat signifikan. Pada bulan September, Tether memperoleh saham dalam penambang bitcoin Jerman Northern Data, dilaporkan menghabiskan $420 juta untuk membeli 10.000 GPU H100 (salah satu GPU paling canggih untuk pelatihan kecerdasan buatan). Waktu tunggu untuk mendapatkan perangkat keras kelas atas bisa setidaknya enam bulan, jika tidak lebih lama dalam banyak kasus. Lebih buruk lagi, perusahaan sering diminta untuk menandatangani kontrak jangka panjang untuk mengamankan volume komputasi yang mungkin bahkan tidak mereka gunakan. Hal ini dapat menyebabkan situasi di mana sumber daya komputasi tersedia namun tidak dapat diakses di pasar. Sistem komputasi terdesentralisasi membantu mengatasi ketidaksempurnaan pasar ini dengan menciptakan pasar sekunder di mana pemilik komputasi dapat langsung menyewakan kapasitas berlebih mereka setelah pemberitahuan, sehingga melepaskan pasokan baru.
Selain harga yang kompetitif dan aksesibilitas, proposisi nilai kunci dari komputasi terdesentralisasi adalah resistensi sensor. Pengembangan AI mutakhir semakin didominasi oleh perusahaan teknologi besar dengan kemampuan akses komputasi dan data yang tak tertandingi. Tema kunci pertama yang disorot dalam Laporan Tahunan AI Index 2023 adalah pertumbuhan yang melampaui dunia akademis oleh industri dalam pengembangan model AI, yang mengkonsentrasikan kontrol di tangan beberapa pemimpin teknologi. Hal ini menimbulkan kekhawatiran tentang potensi mereka untuk menguasai pengaruh yang signifikan dalam menetapkan norma dan nilai yang mendasari model AI, terutama setelah perusahaan teknologi ini mendorong regulasi untuk membatasi pengembangan AI yang tak terkendali.
Beberapa model komputasi terdesentralisasi muncul dalam beberapa tahun terakhir, masing-masing dengan fokus dan komprominya sendiri.
Secara garis besar, proyek-proyek seperti Akash, io.net, iExec, dan Cudos adalah aplikasi dari komputasi terdesentralisasi, yang menawarkan solusi di luar data dan komputasi umum, akses ke komputasi khusus untuk pelatihan dan inferensi kecerdasan buatan. Akash menonjol sebagai satu-satunya platform “super cloud” yang sepenuhnya open-source, menggunakan Cosmos SDK untuk jaringan proof-of-stake-nya. AKT, token asli Akash, berfungsi sebagai metode pembayaran untuk mengamankan jaringan dan mendorong partisipasi. Diluncurkan pada tahun 2020, mainnet Akash awalnya berfokus pada pasar komputasi awan tanpa izin, menampilkan layanan penyimpanan dan sewa CPU. Pada Juni 2023, Akash memperkenalkan testnet berbasis GPU, diikuti oleh peluncuran mainnet GPU pada bulan September, memungkinkan penyewaan GPU untuk pelatihan dan inferensi kecerdasan buatan.
Ekosistem Akash terdiri dari dua peserta utama: penyewa, yang mencari sumber daya komputasi, dan penyedia, pemasok komputasi. Proses lelang terbalik memfasilitasi pencocokan penyewa dan penyedia, di mana penyewa memposting persyaratan komputasi mereka, termasuk lokasi server pilihan atau jenis perangkat keras dan anggaran mereka. Penyedia kemudian menawar, dengan penawar terendah diberikan tugas. Validator mempertahankan integritas jaringan, dengan batas saat ini pada 100 validator, direncanakan akan meningkat seiring waktu. Partisipasi sebagai validator terbuka bagi mereka yang mempertaruhkan lebih banyak AKT daripada validator saat ini yang paling sedikit dipertaruhkan. Pemegang AKT dapat mendelegasikan token mereka ke validator, dengan biaya transaksi dan hadiah blok yang didistribusikan di AKT. Selain itu, untuk setiap sewa, jaringan Akash mendapatkan "take rate," yang diputuskan oleh komunitas, didistribusikan kepada pemegang AKT.
Pasar sekunder untuk komputasi terdesentralisasi bertujuan untuk mengatasi ketidaksempurnaan dalam pasar komputasi yang ada, di mana kendala pasokan menyebabkan perusahaan menyimpan sumber daya melebihi kebutuhan mereka dan kontrak jangka panjang dengan penyedia cloud lebih lanjut membatasi pasokan. Platform komputasi terdesentralisasi membuka pasokan baru, memungkinkan siapa pun dengan kebutuhan komputasi menjadi penyedia.
Apakah lonjakan permintaan untuk GPU untuk pelatihan AI berubah menjadi penggunaan jaringan yang berkelanjutan di Akash masih harus dilihat. Secara historis, Akash telah menawarkan layanan pasar berbasis CPU dengan diskon 70-80% dibandingkan dengan alternatif terpusat, namun strategi penetapan harga ini belum secara signifikan mendorong adopsi. Aktivitas jaringan, diukur dengan sewa aktif, telah mencapai puncak, dengan rata-rata 33% komputasi, 16% memori, dan 13% utilitas penyimpanan pada kuartal kedua tahun 2023, impresif untuk adopsi on-chain namun mengindikasikan pasokan masih melebihi permintaan. Setengah tahun sejak peluncuran jaringan GPU, masih terlalu dini untuk penilaian definitif adopsi jangka panjang, meskipun tanda-tanda awal menunjukkan rata-rata 44% utilitas GPU, didorong terutama oleh permintaan untuk GPU berkualitas tinggi seperti A100, lebih dari 90% di antaranya telah disewakan.
Pengeluaran harian Akash hampir dua kali lipat sejak diperkenalkannya GPU, yang sebagian disebabkan oleh peningkatan penggunaan layanan lain, terutama CPU, tetapi terutama karena penggunaan GPU baru.
Harga bersaing dengan, atau dalam beberapa kasus lebih mahal dari, rekan terpusat seperti Lambda Cloud dan Vast.ai. Permintaan tinggi untuk GPU kelas atas, seperti H100 dan A100, berarti sebagian besar pemilik perangkat tersebut tidak tertarik untuk mencatatnya di pasar dengan harga yang kompetitif.
Meskipun keuntungan awal, hambatan adopsi tetap ada. Jaringan komputasi terdesentralisasi harus mengambil langkah lebih lanjut untuk menghasilkan permintaan dan pasokan, dengan tim-tim yang sedang menjelajahi cara terbaik untuk menarik pengguna baru. Misalnya, pada awal 2024, Akash melewati Proposal 240, meningkatkan emisi AKT untuk penyedia GPU untuk mendorong lebih banyak pasokan, terutama untuk GPU high-end. Tim-tim juga sedang mengerjakan model proof-of-concept untuk mendemonstrasikan kemampuan langsung jaringan mereka kepada pengguna potensial. Akash sedang melatih model-model dasarnya dan telah meluncurkan produk chatbot dan generasi gambar yang memanfaatkan GPU Akash. Demikian pula, io.net telah mengembangkan model difusi stabil dan meluncurkan fungsionalitas jaringan baru untuk lebih meniru kinerja jaringan dan skala.
Selain platform komputasi umum yang dapat memenuhi tuntutan kecerdasan buatan, sekelompok pemasok GPU AI profesional yang fokus pada pelatihan model pembelajaran mesin juga mulai muncul. Misalnya, Gensyn sedang 'mengkoordinasikan daya dan perangkat keras untuk membangun kecerdasan kolektif,' dengan filosofi bahwa 'jika seseorang ingin melatih sesuatu dan seseorang bersedia melatihnya, maka pelatihan ini harus diizinkan terjadi.'
Protokol ini melibatkan empat peserta utama: pengirim, solver, validator, dan whistleblower. Pengirim mengirimkan tugas dengan permintaan pelatihan ke jaringan. Tugas-tugas ini termasuk tujuan pelatihan, model yang akan dilatih, dan data pelatihan. Sebagai bagian dari proses pengiriman, pengirim perlu membayar biaya komputasi yang diperkirakan diperlukan oleh solver.
Setelah pengajuan, tugas diberikan kepada penyelesaian yang sebenarnya melakukan pelatihan model. Kemudian, penyelesaian mengajukan tugas yang sudah selesai kepada validator, yang bertanggung jawab untuk memeriksa pelatihan untuk memastikan bahwa itu diselesaikan dengan benar. Pelapor ditugaskan untuk memastikan validator bertindak jujur. Untuk memotivasi pelapor untuk berpartisipasi dalam jaringan, Gensyn berencana untuk secara teratur menawarkan bukti yang sengaja tidak benar, memberikan hadiah kepada pelapor yang menangkapnya.
Selain menyediakan komputasi untuk beban kerja terkait kecerdasan buatan, sebuah tawaran nilai kunci dari Gensyn adalah sistem verifikasinya, yang masih dalam pengembangan. Verifikasi diperlukan untuk memastikan bahwa komputasi eksternal oleh penyedia GPU dieksekusi dengan benar (yaitu, memastikan model pengguna dilatih sesuai keinginan mereka). Gensyn mengatasi masalah ini dengan pendekatan yang unik, menggunakan metode verifikasi baru yang disebut “bukti pembelajaran probabilistik, protokol tepat berbasis graf, dan permainan insentif gaya Truebit.” Ini adalah model pemecahan yang optimis yang memungkinkan validator mengonfirmasi bahwa solver telah menjalankan model dengan benar tanpa perlu sepenuhnya menjalankan ulang model mereka sendiri, sebuah proses yang mahal dan tidak efisien.
Selain metode verifikasi inovatifnya, Gensyn juga mengklaim lebih hemat biaya dibandingkan dengan alternatif terpusat dan pesaing mata uang kripto - menawarkan harga pelatihan ML hingga 80% lebih murah dari AWS, sambil melampaui proyek serupa seperti Truebit dalam uji coba.
Apakah hasil awal ini dapat direplikasi dalam skala besar di jaringan terdesentralisasi masih harus dilihat. Gensyn berharap dapat memanfaatkan kapasitas komputasi surplus dari penyedia seperti pusat data kecil, pengguna ritel, dan akhirnya perangkat mobile kecil seperti smartphone. Namun, seperti yang diakui tim Gensyn sendiri, bergantung pada penyedia komputasi heterogen memperkenalkan beberapa tantangan baru.
Untuk penyedia terpusat seperti Google Cloud dan Coreweave, biaya komputasi mahal, tetapi komunikasi antar komputasi (bandwidth dan laten) murah. Sistem ini dirancang untuk memfasilitasi komunikasi antar perangkat keras secepat mungkin. Gensyn mengganggu kerangka kerja ini dengan mengurangi biaya komputasi dengan memungkinkan siapa pun di dunia menawarkan GPU, tetapi pada saat yang sama meningkatkan biaya komunikasi, karena jaringan sekarang harus mengkoordinasikan pekerjaan komputasi di seluruh perangkat keras heterogen yang jauh. Gensyn belum diluncurkan, tetapi merupakan bukti konsep yang dapat dicapai saat membangun protokol pelatihan pembelajaran mesin terdesentralisasi.
Platform komputasi terdesentralisasi juga menawarkan kemungkinan untuk merancang metode penciptaan kecerdasan buatan. Bittensor adalah protokol komputasi terdesentralisasi yang dibangun di Substrate, berusaha menjawab pertanyaan, “Bagaimana kita mengubah kecerdasan buatan menjadi metode kolaboratif?” Bittensor bertujuan untuk mencapai desentralisasi dan komodifikasi generasi AI. Diluncurkan pada tahun 2021, ia berharap dapat memanfaatkan kekuatan model pembelajaran mesin kolaboratif untuk terus mengulang dan menghasilkan AI yang lebih baik.
Bittensor mengambil inspirasi dari Bitcoin, dengan mata uang aslinya, TAO, memiliki batas pasokan sebesar 21 juta dan siklus pengurangan setiap empat tahun (pengurangan pertama dijadwalkan pada tahun 2025). Berbeda dengan menggunakan Proof of Work untuk menghasilkan angka acak yang benar dan mendapatkan imbalan blok, Bittensor mengandalkan “Proof of Intelligence,” yang mengharuskan para penambang menjalankan model untuk menghasilkan output sebagai respons terhadap permintaan inferensi.
Mendorong Kecerdasan
Awalnya, Bittensor mengandalkan model Mixture of Experts (MoE) untuk menghasilkan output. Ketika permintaan inferensi diajukan, model MoE tidak bergantung pada model umum tetapi meneruskan permintaan ke model yang paling akurat untuk jenis input yang diberikan. Bayangkan membangun sebuah rumah, di mana Anda menyewa berbagai ahli untuk berbagai aspek proses konstruksi (misalnya, arsitek, insinyur, pelukis, pekerja konstruksi, dll.). MoE menerapkan ini pada model pembelajaran mesin, mencoba memanfaatkan output dari model yang berbeda berdasarkan input. Seperti yang dijelaskan oleh pendiri Bittensor, Ala Shaabana, ini seperti "berbicara dengan ruangan yang penuh dengan orang pintar untuk mendapatkan jawaban terbaik, daripada berbicara dengan satu orang." Karena tantangan dalam memastikan perutean yang benar, sinkronisasi pesan ke model yang benar, dan insentif, metode ini telah ditangguhkan hingga pengembangan proyek lebih lanjut.
Dalam jaringan Bittensor, ada dua partisipan utama: validator dan penambang. Validator mengirimkan permintaan inferensi ke penambang, meninjau output mereka, dan memberi peringkat berdasarkan kualitas respons mereka. Untuk memastikan peringkat mereka dapat diandalkan, validator diberi skor “vtrust” berdasarkan seberapa konsisten peringkat mereka dengan validator lainnya. Semakin tinggi skor vtrust seorang validator, semakin banyak emisi TAO yang mereka terima. Hal ini untuk mendorong validator mencapai konsensus tentang peringkat model dari waktu ke waktu, karena semakin banyak validator setuju tentang peringkat, semakin tinggi skor vtrust individu mereka.
Penambang, juga dikenal sebagai server, adalah peserta jaringan yang menjalankan model pembelajaran mesin yang sebenarnya. Mereka bersaing untuk memberikan output yang paling akurat untuk kueri validator, dan semakin akurat outputnya, semakin banyak emisi TAO yang mereka peroleh. Penambang bebas menghasilkan output ini sesuai keinginan. Misalnya, di masa depan, sangat mungkin bagi penambang Bittensor untuk sebelumnya melatih model di Gensyn dan menggunakannya untuk mendapatkan emisi TAO.
Hari ini, sebagian besar interaksi terjadi langsung antara validator dan penambang. Validator mengirimkan input ke penambang dan meminta output (yaitu, pelatihan model). Begitu validator mengajukan pertanyaan kepada penambang di jaringan dan menerima respons mereka, mereka menilai para penambang dan mengirimkan peringkat mereka ke jaringan.
Interaksi antara validator (mengandalkan PoS) dan penambang (mengandalkan Model Proof, sebuah bentuk PoW) dikenal sebagai konsensus Yuma. Ini bertujuan untuk memberikan insentif kepada penambang untuk menghasilkan output terbaik untuk mendapatkan emisi TAO dan memberikan insentif kepada validator untuk secara akurat menilai output penambang, mendapatkan skor vtrust yang lebih tinggi, dan meningkatkan imbalan TAO mereka, sehingga membentuk mekanisme konsensus untuk jaringan.
Subnet dan Aplikasi
Interaksi di Bittensor pada umumnya melibatkan validator mengirimkan permintaan kepada penambang dan mengevaluasi hasil keluaran mereka. Namun, seiring dengan peningkatan kualitas penambang kontribusi dan pertumbuhan kecerdasan jaringan secara keseluruhan, Bittensor sedang membuat lapisan aplikasi di atas tumpukan yang ada sehingga pengembang dapat membangun aplikasi yang mengakses jaringan Bittensor.
Pada Oktober 2023, Bittensor memperkenalkan subnets melalui upgrade Revolusi, mengambil langkah signifikan menuju pencapaian tujuan ini. Subnets adalah jaringan terpisah di Bittensor yang mendorong perilaku tertentu. Revolusi membuka jaringan bagi siapa pun yang tertarik untuk membuat subnets. Dalam beberapa bulan setelah diluncurkan, lebih dari 32 subnets telah diluncurkan, termasuk subnets untuk teks prompts, data scraping, generasi gambar, dan penyimpanan. Ketika subnets matang dan siap digunakan, pencipta subnet juga akan membuat integrasi aplikasi, memungkinkan tim untuk membangun aplikasi yang mengakses subnets tertentu. Beberapa aplikasi, seperti chatbots, pembuat gambar, bot balasan Twitter, dan pasar prediksi, memang ada tetapi tidak ada insentif formal selain pendanaan dari Yayasan Bittensor bagi validator untuk menerima dan meneruskan pertanyaan-pertanyaan ini.
Untuk penjelasan yang lebih jelas, di bawah ini adalah contoh bagaimana Bittensor mungkin berfungsi setelah aplikasi terintegrasi ke dalam jaringan.
Subnet menghasilkan TAO berdasarkan kinerja yang dievaluasi oleh jaringan root. Jaringan root, yang terletak di atas semua subnet, pada dasarnya bertindak sebagai subnet khusus dan dikelola oleh 64 validator subnet terbesar berdasarkan saham. Validator jaringan root meranking subnet berdasarkan kinerjanya dan secara berkala mengalokasikan emisi TAO ke subnet. Dengan cara ini, subnet individu bertindak sebagai penambang untuk jaringan root.
Visi Bittensor
Bittensor masih mengalami masa pertumbuhan saat memperluas fungsionalitas protokol untuk mendorong generasi kecerdasan di berbagai subnet. Para penambang terus merancang cara baru untuk menyerang jaringan demi lebih banyak imbalan TAO, misalnya dengan sedikit mengubah output inferensi yang sangat baik yang dijalankan oleh model mereka dan kemudian mengirimkan beberapa varian. Usulan tata kelola yang memengaruhi seluruh jaringan hanya dapat diajukan dan diimplementasikan oleh Triumvirate, yang terdiri sepenuhnya dari para pemegang saham dari Yayasan Opentensor (secara khusus, usulan memerlukan persetujuan dari Senat Bittensor, yang terdiri dari validator Bittensor, sebelum diimplementasikan). Tokenomika proyek sedang dimodifikasi untuk meningkatkan insentif untuk penggunaan TAO lintas-subnet. Proyek ini juga dengan cepat mendapatkan ketenaran karena pendekatannya yang unik, dengan CEO salah satu situs AI paling populer, HuggingFace, menyatakan bahwa Bittensor seharusnya menambahkan sumber dayanya ke situs.
Dalam artikel terbaru berjudul “Paradigma Bittensor” yang dipublikasikan oleh pengembang inti, tim menjabarkan visi Bittensor untuk akhirnya menjadi “agnostik terhadap apa yang diukur.” Secara teoritis, ini bisa memungkinkan Bittensor untuk mengembangkan subnet yang mendorong berbagai jenis perilaku yang didukung oleh TAO. Masih ada batasan praktis yang cukup signifikan—terutama, membuktikan bahwa jaringan-jaringan ini dapat berkembang untuk menangani berbagai proses dan insentif potensial mendorong kemajuan di luar produk-produk terpusat.
Bagian di atas memberikan gambaran mendalam tentang berbagai jenis protokol komputasi kecerdasan buatan (AI) terdesentralisasi yang saat ini sedang dikembangkan. Dalam tahap awal pengembangan dan adopsi, mereka membentuk dasar bagi sebuah ekosistem yang pada akhirnya bisa memfasilitasi penciptaan "blok bangunan AI," mirip dengan konsep "money Legos" dalam DeFi. Komposabilitas blockchain tanpa izin memungkinkan setiap protokol untuk dibangun di atas yang lain, menciptakan ekosistem AI terdesentralisasi yang lebih komprehensif.
Sebagai contoh, inilah bagaimana Akash, Gensyn, dan Bittensor mungkin berinteraksi untuk merespons permintaan inferensi.
Penting untuk memahami bahwa ini hanyalah contoh dari apa yang bisa terjadi di masa depan, bukan representasi dari ekosistem saat ini, kemitraan yang ada, atau hasil yang potensial. Keterbatasan interoperabilitas dan pertimbangan lain yang dijelaskan di bawah ini secara signifikan membatasi kemungkinan integrasi saat ini. Selain itu, fragmentasi likuiditas dan kebutuhan untuk menggunakan beberapa token bisa merugikan pengalaman pengguna, seperti yang dicatat oleh para pendiri Akash dan Bittensor.
Selain komputasi, beberapa layanan infrastruktur terdesentralisasi lainnya telah diperkenalkan untuk mendukung ekosistem AI yang muncul dalam ruang kripto. Mendaftar semua ini di luar cakupan laporan ini, tetapi beberapa contoh menarik dan menggambarkan termasuk:
Secara keseluruhan, contoh-contoh ini menunjukkan peluang yang hampir tak terbatas untuk mengeksplorasi model pasar terdesentralisasi yang mendukung model AI atau infrastruktur periferal yang diperlukan untuk mengembangkannya. Saat ini, sebagian besar proyek ini berada dalam tahap proof-of-concept dan memerlukan penelitian dan pengembangan lebih lanjut untuk membuktikan bahwa mereka dapat beroperasi pada skala yang diperlukan untuk menyediakan layanan AI yang komprehensif.
Produk komputasi terdesentralisasi masih dalam tahap awal pengembangan. Mereka baru saja mulai meluncurkan kemampuan komputasi mutakhir, mampu melatih model kecerdasan buatan paling kuat dalam produksi. Untuk mendapatkan pangsa pasar yang signifikan, mereka perlu menunjukkan keunggulan nyata dibandingkan dengan alternatif terpusat. Pemicu potensial untuk adopsi lebih luas termasuk:
Kontrak pintar adalah landasan dari setiap ekosistem blockchain. Mereka secara otomatis dieksekusi di bawah serangkaian kondisi tertentu, mengurangi atau menghilangkan kebutuhan akan pihak ketiga yang dipercayai, sehingga memungkinkan penciptaan aplikasi terdesentralisasi yang kompleks, seperti yang ada di DeFi. Namun, fungsionalitas kontrak pintar masih terbatas karena mereka beroperasi berdasarkan parameter yang telah ditetapkan yang harus diperbarui.
Sebagai contoh, kontrak pintar diterapkan untuk protokol peminjaman/peminjaman, yang berisi spesifikasi kapan posisi harus dilikuidasi berdasarkan rasio pinjaman ke nilai tertentu. Meskipun berguna di lingkungan statis, kontrak pintar ini memerlukan pembaruan konstan untuk beradaptasi dengan perubahan dalam toleransi risiko dalam situasi dinamis, menimbulkan tantangan bagi kontrak yang tidak dikelola melalui proses terpusat. Sebagai contoh, DAO yang mengandalkan proses pengaturan terdesentralisasi mungkin tidak bereaksi dengan cukup cepat terhadap risiko sistemik.
Mengintegrasikan kecerdasan buatan (yaitu, model pembelajaran mesin) ke dalam kontrak pintar adalah cara potensial untuk meningkatkan fungsionalitas, keamanan, dan efisiensi sambil meningkatkan pengalaman pengguna secara keseluruhan. Namun, integrasi ini juga memperkenalkan risiko tambahan, karena tidak mungkin untuk memastikan model-model yang mendasari kontrak pintar ini tidak akan dieksploitasi atau gagal menginterpretasikan situasi long-tail (diberikan kelangkaan masukan data, situasi long-tail sulit bagi model untuk dilatih).
Machine learning memerlukan perhitungan yang signifikan untuk menjalankan model-model kompleks, sehingga menjadi tidak praktis untuk langsung menjalankan model AI dalam kontrak pintar karena biaya tinggi. Sebagai contoh, protokol DeFi yang menawarkan model optimisasi hasil akan kesulitan untuk menjalankan model-model ini on-chain tanpa menimbulkan biaya Gas yang melarang. Salah satu solusinya adalah meningkatkan kemampuan komputasi dari blockchain yang mendasarinya. Namun, hal ini juga meningkatkan persyaratan untuk validator-chain, yang berpotensi mengorbankan desentralisasi. Sebaliknya, beberapa proyek sedang menjelajahi penggunaan zkML untuk memverifikasi output secara tidak dapat dipercaya tanpa memerlukan komputasi on-chain yang intensif.
Sebuah contoh umum yang menggambarkan kegunaan zkML adalah ketika pengguna memerlukan orang lain untuk menjalankan data melalui model dan memverifikasi bahwa rekan mereka memang telah menjalankan model yang benar. Pengembang yang menggunakan penyedia komputasi terdesentralisasi untuk melatih model mereka mungkin khawatir tentang penyedia ini memotong biaya dengan menggunakan model-model yang lebih murah yang menghasilkan output dengan perbedaan yang hampir tidak terlihat. zkML memungkinkan penyedia komputasi untuk menjalankan data melalui model mereka dan kemudian menghasilkan bukti yang dapat diverifikasi di rantai, membuktikan bahwa output model untuk input yang diberikan benar. Dalam skenario ini, penyedia model memperoleh keuntungan tambahan dengan dapat menawarkan model mereka tanpa harus mengungkapkan bobot yang mendasari yang menghasilkan output.
Kebalikannya juga mungkin terjadi. Jika pengguna ingin menjalankan model pada data mereka tetapi tidak ingin memberikan akses proyek model ke data mereka karena kekhawatiran privasi (misalnya, dalam pemeriksaan medis atau informasi bisnis properti), mereka dapat menjalankan model pada data mereka tanpa berbagi data, dan kemudian memverifikasi melalui bukti bahwa mereka telah menjalankan model yang benar. Kemungkinan ini sangat memperluas ruang desain untuk mengintegrasikan fungsionalitas AI dan kontrak pintar dengan mengatasi kendala komputasi yang menakutkan.
Dengan tahap awal dari bidang zkML, pengembangan terutama difokuskan pada membangun infrastruktur dan alat yang dibutuhkan tim untuk mengonversi model dan output mereka menjadi bukti yang dapat diverifikasi di rantai. Produk-produk ini mengabstraksi aspek zero-knowledge sebanyak mungkin.
EZKL dan Giza adalah dua proyek yang membangun alat-alat tersebut dengan menyediakan bukti-bukti yang dapat diverifikasi dari eksekusi model pembelajaran mesin. Kedua proyek ini membantu tim dalam membangun model pembelajaran mesin untuk memastikan bahwa model-model ini dapat dieksekusi dengan cara yang memungkinkan hasilnya diverifikasi secara on-chain dengan cara yang dapat dipercaya. Kedua proyek ini menggunakan Open Neural Network Exchange (ONNX) untuk mengonversi model-model pembelajaran mesin yang ditulis dalam bahasa umum seperti TensorFlow dan Pytorch ke dalam format standar. Mereka kemudian menghasilkan versi-versi dari model-model ini yang juga menghasilkan bukti zk saat dieksekusi. EZKL adalah open-source, menghasilkan zk-SNARKs, sementara Giza adalah closed-source, menghasilkan zk-STARKs. Kedua proyek ini saat ini hanya kompatibel dengan EVM.
Dalam beberapa bulan terakhir, EZKL telah membuat kemajuan signifikan dalam meningkatkan solusi zkML, terutama berfokus pada pengurangan biaya, peningkatan keamanan, dan percepatan generasi bukti. Sebagai contoh, pada November 2023, EZKL mengintegrasikan perpustakaan GPU sumber terbuka yang baru yang mengurangi waktu bukti agregasi sebesar 35%; pada Januari, EZKL merilis Lilith, solusi perangkat lunak untuk mengintegrasikan klaster komputasi berkinerja tinggi dan mengatur sistem pekerjaan simultan saat menggunakan bukti EZKL. Keunikan Giza terletak pada penyediaan alat untuk membuat model pembelajaran mesin yang dapat diverifikasi dan merencanakan untuk menerapkan versi web3 dari Hugging Face, membuka pasar pengguna untuk kolaborasi zkML dan berbagi model, dan akhirnya mengintegrasikan produk komputasi terdesentralisasi. Pada Januari, EZKL memublikasikan evaluasi benchmark yang membandingkan kinerja EZKL, Giza, dan RiscZero (sebagaimana dijelaskan di bawah), menampilkan waktu bukti yang lebih cepat dan penggunaan memori.
Modulus Labs saat ini sedang mengembangkan teknologi bukti zero-knowledge (zk) baru yang dikhususkan untuk model AI. Modulus merilis sebuah paper berjudul “Intelligent Cost,” yang menyiratkan bahwa menjalankan model AI on-chain mengakibatkan biaya yang terlalu tinggi. Paper ini, yang diterbitkan pada Januari 2023, melakukan benchmark terhadap sistem bukti zk yang ada untuk mengidentifikasi peningkatan dalam kemampuan bukti zk dan hambatan dalam model AI. Paper ini mengungkapkan bahwa produk-produk saat ini terlalu mahal dan tidak efisien untuk aplikasi AI berskala besar. Melanjutkan penelitian awal, Modulus meluncurkan Remainder pada bulan November, sebuah zk prover khusus yang bertujuan untuk mengurangi biaya dan waktu bukti untuk model AI, membuat proyek-proyek tersebut ekonomis untuk integrasi berskala besar ke dalam smart contracts. Karya mereka bersifat properti, sehingga tidak mungkin untuk dijadikan benchmark terhadap solusi-solusi yang disebutkan, namun baru-baru ini disebutkan dalam pos blog Vitalik tentang kriptografi dan kecerdasan buatan.
Pengembangan alat dan infrastruktur sangat penting untuk pertumbuhan masa depan ruang zkML, karena dapat secara signifikan mengurangi gesekan yang terlibat dalam penyebaran perhitungan off-chain yang dapat diverifikasi dan kebutuhan untuk tim zk. Membuat antarmuka yang aman untuk praktisi pembelajaran mesin non-kripto-natif membawa model mereka ke on-chain akan memungkinkan aplikasi untuk bereksperimen dengan kasus penggunaan yang benar-benar baru. Selain itu, alat-alat ini mengatasi hambatan utama untuk adopsi yang lebih luas zkML: kurangnya pengembang yang berpengetahuan tertarik untuk bekerja di persimpangan pengetahuan, pembelajaran mesin, dan kriptografi nol pengetahuan.
Solusi lain dalam pengembangan, disebut sebagai "coprocessors" (termasuk RiscZero, Axiom, dan Ritual), melayani berbagai peran, termasuk memverifikasi perhitungan off-chain on-chain. Seperti EZKL, Giza, dan Modulus, tujuan mereka adalah untuk mengabstraksi proses pembuatan bukti zk sepenuhnya, menciptakan mesin virtual tanpa pengetahuan yang mampu mengeksekusi program off-chain dan menghasilkan bukti yang dapat diverifikasi secara on-chain. RiscZero dan Axiom melayani model AI sederhana sebagai koprosesor tujuan umum, sementara Ritual dibangun khusus untuk digunakan dengan model AI.
Pertama kali Ritual, Infernet, mencakup Infernet SDK yang memungkinkan pengembang mengirimkan permintaan inferensi ke jaringan dan menerima output serta bukti opsional sebagai balasannya. Node Infernet memproses komputasi di luar rantai ini sebelum mengembalikan output. Sebagai contoh, sebuah DAO bisa mendirikan proses yang memastikan semua proposal tata kelola baru memenuhi syarat tertentu sebelum diserahkan. Setiap kali proposal baru diajukan, kontrak tata kelola memicu permintaan inferensi melalui Infernet, memanggil model AI yang dilatih khusus untuk tata kelola DAO. Model ini meninjau proposal untuk memastikan semua standar yang diperlukan terpenuhi dan mengembalikan output serta bukti untuk menyetujui atau menolak pengajuan proposal.
Selama setahun ke depan, tim Ritual berencana untuk memperkenalkan lebih banyak fitur, membentuk lapisan infrastruktur yang dikenal sebagai superchain Ritual. Banyak proyek yang dibahas dapat diintegrasikan sebagai penyedia layanan ke dalam Ritual. Tim Ritual telah mengintegrasikan EZKL untuk pembuatan bukti dan mungkin segera menambah fitur dari penyedia terkemuka lainnya. Node Infernet di Ritual juga dapat memanfaatkan GPU Akash atau io.net dan model kueri yang dilatih di subnet Bittensor. Tujuan utama mereka adalah menjadi penyedia infrastruktur AI terbuka yang disukai, menawarkan layanan untuk pembelajaran mesin dan tugas-tugas AI lainnya untuk setiap jaringan dan beban kerja.
zkML membantu untuk mendamaikan dikotomi antara blockchain, yang secara inheren terbatas sumber dayanya, dan kecerdasan buatan, yang membutuhkan sumber daya komputasi dan data yang signifikan. Seperti yang dikatakan pendiri Giza, 'kasus penggunaannya sangat kaya... Ini agak seperti bertanya apa kasus penggunaan untuk kontrak pintar di awal Ethereum... Apa yang kami lakukan hanyalah memperluas kasus penggunaan untuk kontrak pintar.' Namun, seperti yang dicatat, perkembangan saat ini terutama terjadi pada level alat dan infrastruktur. Aplikasi masih berada dalam fase eksplorasi, dengan tim menghadapi tantangan untuk membuktikan bahwa nilai yang dihasilkan dengan menerapkan model dengan zkML melebihi kompleksitas dan biayanya.
Aplikasi saat ini termasuk:
zkML tetap bersifat eksperimental, dengan sebagian besar proyek berfokus pada membangun primitif infrastruktur dan bukti konsep. Tantangan saat ini termasuk biaya komputasi, batasan memori, kompleksitas model, keterbatasan alat dan infrastruktur, dan talenta pengembang. Singkatnya, masih banyak pekerjaan yang harus dilakukan sebelum zkML dapat diimplementasikan dalam skala yang diperlukan oleh produk konsumen.
Namun, seiring dengan berkembangnya bidang ini dan penyelesaian terhadap keterbatasan-keterbatasan ini, zkML akan menjadi komponen kunci dalam mengintegrasikan kecerdasan buatan dengan kriptografi. Pada dasarnya, zkML berjanji untuk membawa skala komputasi off-chain ke on-chain, sambil tetap mempertahankan jaminan keamanan yang sama atau serupa seperti berjalan on-chain. Namun, sebelum visi ini terwujud, pengguna awal teknologi akan terus harus menyeimbangkan privasi dan keamanan zkML dengan efisiensi dari alternatif-alternatif.
Agen Kecerdasan Buatan
Salah satu integrasi yang paling menarik dari kecerdasan buatan dan mata uang kripto adalah eksperimen yang sedang berlangsung dengan agen kecerdasan buatan. Agen adalah robot otonom yang mampu menerima, menginterpretasikan, dan mengeksekusi tugas menggunakan model AI. Ini bisa bervariasi mulai dari memiliki asisten pribadi yang tersedia setiap saat, disesuaikan dengan preferensi Anda, hingga menyewa agen keuangan untuk mengelola dan menyesuaikan portofolio investasi Anda berdasarkan preferensi risiko Anda.
Mengingat bahwa cryptocurrency menawarkan infrastruktur pembayaran tanpa izin dan tanpa kepercayaan, agen dan cryptocurrency dapat diintegrasikan dengan baik. Setelah dilatih, agen akan memiliki dompet, memungkinkan mereka untuk melakukan transaksi sendiri menggunakan kontrak pintar. Misalnya, agen saat ini dapat mengikis informasi di internet dan kemudian berdagang di pasar prediksi berdasarkan model.
Morpheus adalah salah satu proyek agen open-source terbaru yang diluncurkan pada tahun 2024 di Ethereum dan Arbitrum. White paper-nya diterbitkan secara anonim pada September 2023, memberikan dasar untuk pembentukan dan pembangunan komunitas, termasuk tokoh-tokoh terkemuka seperti Erik Vorhees. White paper ini mencakup protokol agen pintar yang dapat diunduh, LLM open-source yang dapat dijalankan secara lokal, dikelola oleh dompet pengguna, dan berinteraksi dengan kontrak pintar. Ini menggunakan peringkat kontrak pintar untuk membantu agen menentukan kontrak pintar mana yang dapat berinteraksi dengan aman berdasarkan kriteria seperti jumlah transaksi yang diproses.
Buku putih ini juga menyediakan kerangka kerja untuk membangun jaringan Morpheus, termasuk struktur insentif dan infrastruktur yang diperlukan untuk menjalankan protokol agen pintar. Ini termasuk insentif bagi kontributor untuk membangun front-end untuk berinteraksi dengan agen, API bagi pengembang untuk membangun agen plug-in untuk interaksi timbal balik, dan solusi cloud bagi pengguna untuk mengakses komputasi dan penyimpanan yang diperlukan untuk menjalankan agen di perangkat edge. Pendanaan awal proyek diluncurkan pada awal Februari, dengan protokol penuh diharapkan akan diluncurkan pada kuartal kedua 2024.
Decentralized Autonomous Infrastructure Network (DAIN) adalah protokol infrastruktur agen baru yang membangun ekonomi agen-ke-agen di Solana. Tujuan DAIN adalah memungkinkan agen dari berbagai perusahaan untuk berinteraksi secara mulus satu sama lain melalui API umum, membuka ruang desain yang signifikan untuk agen kecerdasan buatan, berfokus pada agen yang dapat berinteraksi dengan produk web2 dan web3. Pada bulan Januari, DAIN mengumumkan kemitraan pertamanya dengan Asset Shield, memungkinkan pengguna untuk menambahkan "penandatangan agen" ke multisigs mereka, yang mampu mengartikan transaksi dan menyetujui/menolak berdasarkan aturan yang ditetapkan pengguna.
Fetch.AI adalah salah satu protokol agen AI yang diterapkan secara early dan telah mengembangkan ekosistem untuk membangun, menerapkan, dan menggunakan agen on-chain menggunakan token FET dan dompet Fetch.AI. Protokol ini menawarkan rangkaian alat dan aplikasi yang komprehensif untuk menggunakan agen, termasuk fungsi dompet-in untuk berinteraksi dengan dan memesan agen.
Autonolas, yang didirikan oleh mantan anggota tim Fetch, adalah pasar terbuka untuk membuat dan menggunakan agen AI terdesentralisasi. Autonolas juga menyediakan serangkaian alat bagi pengembang untuk membangun agen AI yang di-host di luar rantai yang dapat terhubung ke beberapa blockchain, termasuk Polygon, Ethereum, Gnosis Chain, dan Solana. Saat ini, mereka memiliki beberapa produk konsep bukti agen aktif, termasuk untuk pasar prediksi dan tata kelola DAO.
SingularityNet sedang membangun pasar terdesentralisasi untuk agen kecerdasan buatan, di mana agen kecerdasan buatan khusus dapat dikerahkan, yang dapat disewa oleh orang lain atau agen untuk melakukan tugas-tugas kompleks. Perusahaan lain seperti AlteredStateMachine sedang membangun integrasi agen kecerdasan buatan dengan NFT. Pengguna mencetak NFT dengan atribut-atribut acak, yang memberi mereka kelebihan dan kekurangan dalam tugas-tugas yang berbeda. Agen-agen ini kemudian dapat dilatih untuk meningkatkan atribut-atribut tertentu untuk digunakan dalam permainan, DeFi, atau sebagai asisten virtual dan diperdagangkan dengan pengguna lain.
Secara keseluruhan, proyek-proyek ini memvisualisasikan suatu ekosistem masa depan dari agen-agen yang mampu bekerja secara kolaboratif bukan hanya untuk melakukan tugas-tugas tetapi juga untuk membantu membangun kecerdasan buatan umum. Agen-agen yang benar-benar kompleks akan memiliki kemampuan untuk menyelesaikan tugas-tugas pengguna secara otonom. Sebagai contoh, agen-agen yang sepenuhnya otonom akan mampu menemukan cara untuk mempekerjakan agen lain untuk mengintegrasikan sebuah API, kemudian mengeksekusi suatu tugas tanpa harus memastikan bahwa agen tersebut sudah terintegrasi dengan API-Api eksternal (seperti situs pemesanan perjalanan) sebelum penggunaan. Dari sudut pandang pengguna, tidak perlu memeriksa apakah suatu agen dapat menyelesaikan suatu tugas, karena agen tersebut dapat menentukannya sendiri.
Pada Juli 2023, Lightning Labs meluncurkan implementasi konsep bukti untuk memanfaatkan agen di Jaringan Lightning, yang dijuluki paket Bitcoin oleh LangChain. Produk ini sangat menarik karena bertujuan untuk menangani masalah yang semakin parah di dunia Web 2—kunci API yang tergabung dan mahal dari aplikasi web.
LangChain mengatasi masalah ini dengan menyediakan pengembang dengan serangkaian alat yang memungkinkan agen untuk membeli, menjual, dan menyimpan Bitcoin, serta untuk mengambil kunci API dan mengirim pembayaran mikro. Pada rel pembayaran tradisional, pembayaran mikro sangat mahal karena biaya, tetapi di Jaringan Lightning, agen dapat mengirim sejumlah pembayaran mikro setiap hari dengan biaya minimal. Ketika digunakan bersama dengan kerangka kerja API metering pembayaran L402 LangChain, perusahaan dapat menyesuaikan biaya akses API mereka berdasarkan peningkatan dan penurunan penggunaan, daripada menetapkan standar tunggal yang mahal.
Di masa depan, aktivitas rantai akan didorong secara dominan oleh interaksi antara agen dan agen, yang memerlukan mekanisme untuk memastikan agen dapat berinteraksi satu sama lain tanpa biaya yang melarang. Contoh awal ini menunjukkan potensi penggunaan agen pada rel pembayaran tanpa izin dan efisien secara ekonomi, membuka kemungkinan untuk pasar dan interaksi ekonomi baru.
Bidang agen masih dalam tahap awal. Proyek-proyek baru saja mulai meluncurkan agen fungsional yang mampu menangani tugas-tugas sederhana—akses biasanya terbatas pada pengembang dan pengguna berpengalaman. Namun, seiring berjalannya waktu, salah satu dampak paling signifikan dari agen kecerdasan buatan pada mata uang kripto akan menjadi peningkatan pengalaman pengguna di semua sektor. Transaksi akan mulai beralih dari berbasis klik menjadi berbasis teks, memungkinkan pengguna berinteraksi dengan agen on-chain melalui antarmuka percakapan. Tim seperti Dawn Wallet sudah meluncurkan dompet chatbot, memungkinkan pengguna berinteraksi on-chain.
Selain itu, masih belum jelas bagaimana agen akan beroperasi di Web 2, karena rel keuangan mengandalkan lembaga perbankan yang diatur yang tidak dapat beroperasi 24/7 atau memfasilitasi transaksi lintas batas yang lancar. Seperti yang disorot oleh Lyn Alden, kurangnya pengembalian dana dan kemampuan untuk menangani mikrotransaksi membuat rel mata uang kripto terutama menarik dibandingkan dengan kartu kredit. Namun, jika agen menjadi medium yang lebih umum untuk transaksi, penyedia pembayaran dan aplikasi yang ada kemungkinan akan cepat beradaptasi, mengimplementasikan infrastruktur yang diperlukan untuk beroperasi pada rel keuangan yang ada, sehingga mengurangi beberapa manfaat menggunakan mata uang kripto.
Saat ini, agen mungkin terbatas pada transaksi mata uang kripto deterministik, di mana input tertentu menjamin output tertentu. Kedua model telah menguraikan kemampuan agen ini untuk mencari tahu cara melakukan tugas kompleks, dan alat-alat sedang memperluas rentang tugas yang dapat mereka selesaikan, yang semuanya memerlukan pengembangan lebih lanjut. Agar agen kripto menjadi berguna di luar kasus penggunaan mata uang kripto on-chain yang baru, integrasi lebih luas dan penerimaan mata uang kripto sebagai bentuk pembayaran, bersama dengan kejelasan regulasi, diperlukan. Namun, saat komponen-komponen ini berkembang, agen-agen siap untuk menjadi salah satu konsumen terbesar dari solusi komputasi terdesentralisasi dan zkML, secara otonom menerima dan menyelesaikan setiap tugas dengan cara yang tidak deterministik.
AI memperkenalkan inovasi yang sama ke mata uang kripto yang telah kita lihat dalam web2, meningkatkan segalanya mulai dari pengembangan infrastruktur hingga pengalaman pengguna dan aksesibilitas. Namun, proyek-proyek masih berada dalam tahap awal pengembangan, dan integrasi mata uang kripto dan AI dalam jangka pendek akan didorong terutama oleh integrasi di luar rantai.
Produk seperti Copilot diatur untuk “meningkatkan efisiensi pengembang hingga 10x,” dan aplikasi Layer 1 dan DeFi telah meluncurkan platform pengembangan yang dibantu AI bekerja sama dengan perusahaan-perusahaan besar seperti Microsoft. Perusahaan seperti Cub3.ai dan Test Machine sedang mengembangkan integrasi AI untuk pemeriksaan kontrak pintar dan pemantauan ancaman real-time untuk meningkatkan keamanan on-chain. Chatbot LLM sedang dilatih dengan data on-chain, dokumentasi protokol, dan aplikasi untuk memberikan pengguna aksesibilitas dan pengalaman pengguna yang ditingkatkan.
Tantangan untuk integrasi yang lebih maju yang benar-benar memanfaatkan teknologi yang mendasari cryptocurrency tetap membuktikan bahwa menerapkan solusi AI on-chain layak secara teknis dan ekonomi. Pengembangan komputasi terdesentralisasi, zkML, dan agen AI menunjukkan vertikal yang menjanjikan yang meletakkan dasar bagi masa depan cryptocurrency dan AI yang saling berhubungan secara mendalam.