Galaxy Digital: Menjelajahi Persimpangan Cryptocurrency dan AI

Menengah2/28/2024, 4:55:33 AM
Artikel ini mengeksplorasi perpotongan antara mata uang kripto dan kecerdasan buatan, menyoroti munculnya blockchain publik sebagai salah satu kemajuan paling dalam dalam sejarah ilmu komputer. Ini membahas bagaimana perkembangan AI sudah memiliki dampak signifikan pada dunia kita.

Pengantar

Kemunculan blockchain publik menandai kemajuan yang mendalam dalam sejarah ilmu komputer, sementara perkembangan kecerdasan buatan memiliki dampak signifikan pada dunia kita. Teknologi blockchain menawarkan templat baru untuk penyelesaian transaksi, penyimpanan data, dan desain sistem, sedangkan kecerdasan buatan mewakili revolusi dalam komputasi, analisis, dan pengiriman konten. Inovasi di industri ini sedang melepaskan kasus penggunaan baru yang dapat mempercepat adopsi kedua sektor dalam beberapa tahun mendatang. Laporan ini meneliti integrasi terus-menerus dari kripto dan kecerdasan buatan, berfokus pada kasus penggunaan baru yang bertujuan untuk menjembatani kesenjangan antara keduanya dan memanfaatkan kekuatan mereka. Secara khusus, melihat proyek-proyek yang mengembangkan protokol komputasi terdesentralisasi, infrastruktur pembelajaran mesin pengetahuan nol (zkML), dan agen kecerdasan buatan.

Mata Uang Kripto menawarkan lapisan penyelesaian yang bersifat tanpa izin, tanpa kepercayaan, dan dapat disusun untuk kecerdasan buatan, membuka kemungkinan seperti akses yang lebih mudah ke perangkat keras melalui sistem komputasi terdesentralisasi, membangun agen kecerdasan buatan yang mampu menjalankan tugas kompleks yang membutuhkan pertukaran nilai, dan mengembangkan identitas dan solusi provenans untuk melawan serangan Sybil dan deepfakes. Kecerdasan buatan membawa banyak manfaat yang sama seperti yang terlihat di Web 2.0 ke mata uang kripto, termasuk pengalaman pengguna dan pengembang yang ditingkatkan melalui model bahasa besar seperti ChatGPT dan Copilot, dan potensi fungsionalitas dan otomatisasi yang signifikan untuk kontrak pintar. Blockchain menyediakan lingkungan yang transparan dan kaya data yang diperlukan untuk kecerdasan buatan, meskipun daya komputasi terbatas dari blockchain adalah hambatan utama untuk integrasi langsung dari model kecerdasan buatan.

Eksperimen dan adopsi akhirnya dalam percampuran mata uang kripto dan AI didorong oleh kekuatan yang sama yang mendorong kasus penggunaan paling menjanjikan untuk mata uang kripto: akses ke lapisan koordinasi tanpa izin dan tanpa kepercayaan, memfasilitasi transfer nilai yang lebih baik. Mengingat potensi besar, para pemangku kepentingan di bidang ini perlu memahami cara mendasar di mana teknologi ini berpotongan.

Titik-titik kunci:

    • Dalam waktu dekat (6 bulan hingga 1 tahun), integrasi mata uang kripto dan KI akan didominasi oleh aplikasi KI yang meningkatkan efisiensi pengembang, auditabilitas dan keamanan kontrak pintar, serta aksesibilitas pengguna. Integrasi-integrasi ini tidak spesifik untuk mata uang kripto tetapi meningkatkan pengalaman bagi pengembang dan pengguna on-chain.
    • Saat GPU berkinerja tinggi tetap langka, produk komputasi terdesentralisasi sedang menerapkan produk GPU yang disesuaikan dengan kecerdasan buatan untuk meningkatkan adopsi.
    • Pengalaman pengguna dan hambatan regulasi tetap menjadi kendala dalam menarik pelanggan komputasi terdesentralisasi. Namun, perkembangan terbaru dari OpenAI dan tinjauan regulasi yang sedang berlangsung di AS menyoroti proposal nilai jaringan AI terdesentralisasi, tanpa izin, tahan sensor, dan terdesentralisasi.
    • Integrasi AI on-chain, terutama kontrak cerdas yang mampu memanfaatkan model AI, memerlukan peningkatan dalam teknologi zkML dan metode lain untuk memverifikasi komputasi off-chain. Kurangnya alat yang komprehensif, bakat pengembang, dan biaya tinggi merupakan hambatan untuk adopsi.
    • Agen AI sangat cocok untuk mata uang kripto, di mana pengguna (atau agen itu sendiri) dapat membuat dompet untuk bertransaksi dengan layanan lain, agen, atau individu—sebuah kemampuan yang tidak mungkin dilakukan dengan rel keuangan tradisional. Integrasi tambahan dengan produk non-kripto diperlukan untuk adopsi yang lebih luas.

Ketentuan

Kecerdasan Buatan adalah penggunaan komputasi dan mesin untuk meniru kemampuan penalaran dan pemecahan masalah manusia.

Jaringan Saraf adalah metode pelatihan model kecerdasan buatan. Mereka menjalankan input melalui lapisan algoritmik diskrit, menyempurnakannya hingga output yang diinginkan dihasilkan. Jaringan saraf terdiri dari persamaan dengan bobot yang dapat disesuaikan untuk mengubah output. Mereka mungkin memerlukan data dan komputasi yang ekstensif untuk pelatihan untuk memastikan output yang akurat. Ini adalah salah satu cara paling umum untuk mengembangkan model AI (misalnya, ChatGPT bergantung pada proses jaringan saraf berbasis Transformers).

Pelatihan adalah proses pengembangan jaringan saraf dan model AI lainnya. Ini memerlukan jumlah data yang signifikan untuk melatih model agar dapat menginterpretasikan input dengan benar dan menghasilkan output yang akurat. Selama pelatihan, bobot persamaan model terus dimodifikasi hingga output yang memuaskan dihasilkan. Pelatihan dapat sangat mahal. Misalnya, ChatGPT menggunakan puluhan ribu GPU miliknya sendiri untuk memproses data. Tim dengan sumber daya yang lebih sedikit sering bergantung pada penyedia komputasi khusus, seperti Amazon Web Services, Azure, dan penyedia Google Cloud.

Inferensi adalah penggunaan aktual dari model AI untuk mendapatkan output atau hasil (misalnya, menggunakan ChatGPT untuk membuat garis besar untuk sebuah makalah tentang persilangan mata uang kripto dan AI). Inferensi digunakan sepanjang proses pelatihan dan dalam produk akhir. Karena biaya komputasi, bahkan setelah pelatihan selesai, biaya operasional mereka bisa tinggi, meskipun intensitas komputasinya lebih rendah daripada pelatihan.

Zero-Knowledge Proofs (ZKP) memungkinkan verifikasi pernyataan tanpa mengungkapkan informasi yang mendasarinya. Ini berguna dalam cryptocurrency karena dua alasan utama: 1) Privasi dan 2) Penskalaan. Untuk privasi, ini memungkinkan pengguna untuk bertransaksi tanpa mengungkapkan informasi sensitif (misalnya, berapa banyak ETH dalam dompet). Untuk penskalaan, ini memungkinkan komputasi off-chain dibuktikan secara on-chain lebih cepat daripada mengeksekusi ulang komputasi. Hal ini memungkinkan blockchain dan aplikasi untuk menjalankan perhitungan murah off-chain dan kemudian memverifikasi mereka on-chain. Untuk informasi lebih lanjut tentang pengetahuan nol dan perannya dalam Mesin Virtual Ethereum, lihat laporan Christine Kim tentang zkEVM: Masa Depan Skalabilitas Ethereum.

Peta Pasar AI/Mata Uang Kripto

Proyek-proyek yang mengintegrasikan kecerdasan buatan dan mata uang kripto masih membangun infrastruktur dasar yang diperlukan untuk mendukung interaksi kecerdasan buatan on-chain dalam skala besar.

Pasar komputasi terdesentralisasi sedang muncul untuk menyediakan perangkat keras fisik yang sangat dibutuhkan untuk melatih dan menafsirkan model AI, terutama dalam bentuk Unit Pemrosesan Grafis (GPUs). Pasar dua sisi ini menghubungkan orang yang menyewakan dan mencari untuk menyewa komputasi, memfasilitasi transfer nilai dan verifikasi perhitungan. Dalam komputasi terdesentralisasi, beberapa subkategori yang menawarkan fungsionalitas tambahan sedang muncul. Selain pasar bilateral, laporan ini juga meninjau penyedia pelatihan pembelajaran mesin yang menawarkan pelatihan yang dapat diverifikasi dan penyempurnaan output, serta proyek-proyek yang didedikasikan untuk menghubungkan komputasi dan generasi model untuk memungkinkan AI, sering disebut sebagai jaringan insentif cerdas.

zkML merupakan area fokus yang sedang berkembang untuk proyek-proyek yang bertujuan untuk memberikan output model yang dapat diverifikasi on-chain secara ekonomis dan tepat waktu. Proyek-proyek ini pada umumnya memungkinkan aplikasi untuk menangani permintaan komputasi berat off-chain, kemudian memposting output yang dapat diverifikasi on-chain, membuktikan bahwa beban kerja off-chain telah selesai dan akurat. zkML saat ini mahal dan memakan waktu, namun semakin banyak digunakan sebagai solusi. Hal ini terbukti dari jumlah integrasi yang semakin meningkat antara penyedia zkML dan aplikasi DeFi/gaming yang ingin memanfaatkan model AI.

Pasokan komputasi yang cukup dan kemampuan untuk memverifikasi komputasi on-chain membuka pintu bagi agen AI on-chain. Agen adalah model-model terlatih yang mampu mengeksekusi permintaan atas nama pengguna. Agen menawarkan kesempatan untuk secara signifikan meningkatkan pengalaman on-chain, memungkinkan pengguna untuk mengeksekusi transaksi kompleks dengan mudah hanya dengan berbicara dengan chatbot. Namun, saat ini, proyek agen masih difokuskan pada pengembangan infrastruktur dan alat untuk penyebaran yang mudah dan cepat.

Komputasi Terdesentralisasi

Ikhtisar

Kecerdasan Buatan membutuhkan komputasi yang luas untuk melatih model dan menjalankan inferensi. Selama dekade terakhir, ketika model-model menjadi semakin kompleks, permintaan akan komputasi telah tumbuh secara eksponensial. Sebagai contoh, OpenAI mengamati bahwa dari tahun 2012 hingga 2018, permintaan komputasi untuk model-modelnya meningkat dua kali lipat setiap dua tahun, beralih menjadi dua kali lipat setiap tiga setengah bulan. Hal ini menyebabkan lonjakan permintaan GPU, dengan beberapa penambang mata uang kripto bahkan mengubah penggunaan GPU mereka untuk menyediakan layanan komputasi awan. Saat persaingan untuk akses komputasi semakin intensif dan biaya meningkat, beberapa proyek memanfaatkan teknologi kriptografi untuk menawarkan solusi komputasi terdesentralisasi. Mereka menyediakan komputasi on-demand dengan harga yang kompetitif, memungkinkan tim untuk melatih dan menjalankan model-model dengan biaya yang terjangkau. Dalam beberapa kasus, kompromi mungkin melibatkan kinerja dan keamanan.

Permintaan untuk GPU terbaru (misalnya, yang diproduksi oleh Nvidia) sangat signifikan. Pada bulan September, Tether memperoleh saham dalam penambang bitcoin Jerman Northern Data, dilaporkan menghabiskan $420 juta untuk membeli 10.000 GPU H100 (salah satu GPU paling canggih untuk pelatihan kecerdasan buatan). Waktu tunggu untuk mendapatkan perangkat keras kelas atas bisa setidaknya enam bulan, jika tidak lebih lama dalam banyak kasus. Lebih buruk lagi, perusahaan sering diminta untuk menandatangani kontrak jangka panjang untuk mengamankan volume komputasi yang mungkin bahkan tidak mereka gunakan. Hal ini dapat menyebabkan situasi di mana sumber daya komputasi tersedia namun tidak dapat diakses di pasar. Sistem komputasi terdesentralisasi membantu mengatasi ketidaksempurnaan pasar ini dengan menciptakan pasar sekunder di mana pemilik komputasi dapat langsung menyewakan kapasitas berlebih mereka setelah pemberitahuan, sehingga melepaskan pasokan baru.

Selain harga yang kompetitif dan aksesibilitas, proposisi nilai kunci dari komputasi terdesentralisasi adalah resistensi sensor. Pengembangan AI mutakhir semakin didominasi oleh perusahaan teknologi besar dengan kemampuan akses komputasi dan data yang tak tertandingi. Tema kunci pertama yang disorot dalam Laporan Tahunan AI Index 2023 adalah pertumbuhan yang melampaui dunia akademis oleh industri dalam pengembangan model AI, yang mengkonsentrasikan kontrol di tangan beberapa pemimpin teknologi. Hal ini menimbulkan kekhawatiran tentang potensi mereka untuk menguasai pengaruh yang signifikan dalam menetapkan norma dan nilai yang mendasari model AI, terutama setelah perusahaan teknologi ini mendorong regulasi untuk membatasi pengembangan AI yang tak terkendali.

Vertikal dalam Komputasi Terdesentralisasi

Beberapa model komputasi terdesentralisasi muncul dalam beberapa tahun terakhir, masing-masing dengan fokus dan komprominya sendiri.

Komputasi Umum

Secara garis besar, proyek-proyek seperti Akash, io.net, iExec, dan Cudos adalah aplikasi dari komputasi terdesentralisasi, yang menawarkan solusi di luar data dan komputasi umum, akses ke komputasi khusus untuk pelatihan dan inferensi kecerdasan buatan. Akash menonjol sebagai satu-satunya platform “super cloud” yang sepenuhnya open-source, menggunakan Cosmos SDK untuk jaringan proof-of-stake-nya. AKT, token asli Akash, berfungsi sebagai metode pembayaran untuk mengamankan jaringan dan mendorong partisipasi. Diluncurkan pada tahun 2020, mainnet Akash awalnya berfokus pada pasar komputasi awan tanpa izin, menampilkan layanan penyimpanan dan sewa CPU. Pada Juni 2023, Akash memperkenalkan testnet berbasis GPU, diikuti oleh peluncuran mainnet GPU pada bulan September, memungkinkan penyewaan GPU untuk pelatihan dan inferensi kecerdasan buatan.

Ekosistem Akash terdiri dari dua peserta utama: penyewa, yang mencari sumber daya komputasi, dan penyedia, pemasok komputasi. Proses lelang terbalik memfasilitasi pencocokan penyewa dan penyedia, di mana penyewa memposting persyaratan komputasi mereka, termasuk lokasi server pilihan atau jenis perangkat keras dan anggaran mereka. Penyedia kemudian menawar, dengan penawar terendah diberikan tugas. Validator mempertahankan integritas jaringan, dengan batas saat ini pada 100 validator, direncanakan akan meningkat seiring waktu. Partisipasi sebagai validator terbuka bagi mereka yang mempertaruhkan lebih banyak AKT daripada validator saat ini yang paling sedikit dipertaruhkan. Pemegang AKT dapat mendelegasikan token mereka ke validator, dengan biaya transaksi dan hadiah blok yang didistribusikan di AKT. Selain itu, untuk setiap sewa, jaringan Akash mendapatkan "take rate," yang diputuskan oleh komunitas, didistribusikan kepada pemegang AKT.

Pasar Sekunder

Pasar sekunder untuk komputasi terdesentralisasi bertujuan untuk mengatasi ketidaksempurnaan dalam pasar komputasi yang ada, di mana kendala pasokan menyebabkan perusahaan menyimpan sumber daya melebihi kebutuhan mereka dan kontrak jangka panjang dengan penyedia cloud lebih lanjut membatasi pasokan. Platform komputasi terdesentralisasi membuka pasokan baru, memungkinkan siapa pun dengan kebutuhan komputasi menjadi penyedia.

Apakah lonjakan permintaan untuk GPU untuk pelatihan AI berubah menjadi penggunaan jaringan yang berkelanjutan di Akash masih harus dilihat. Secara historis, Akash telah menawarkan layanan pasar berbasis CPU dengan diskon 70-80% dibandingkan dengan alternatif terpusat, namun strategi penetapan harga ini belum secara signifikan mendorong adopsi. Aktivitas jaringan, diukur dengan sewa aktif, telah mencapai puncak, dengan rata-rata 33% komputasi, 16% memori, dan 13% utilitas penyimpanan pada kuartal kedua tahun 2023, impresif untuk adopsi on-chain namun mengindikasikan pasokan masih melebihi permintaan. Setengah tahun sejak peluncuran jaringan GPU, masih terlalu dini untuk penilaian definitif adopsi jangka panjang, meskipun tanda-tanda awal menunjukkan rata-rata 44% utilitas GPU, didorong terutama oleh permintaan untuk GPU berkualitas tinggi seperti A100, lebih dari 90% di antaranya telah disewakan.

Pengeluaran harian Akash hampir dua kali lipat sejak diperkenalkannya GPU, yang sebagian disebabkan oleh peningkatan penggunaan layanan lain, terutama CPU, tetapi terutama karena penggunaan GPU baru.

Harga bersaing dengan, atau dalam beberapa kasus lebih mahal dari, rekan terpusat seperti Lambda Cloud dan Vast.ai. Permintaan tinggi untuk GPU kelas atas, seperti H100 dan A100, berarti sebagian besar pemilik perangkat tersebut tidak tertarik untuk mencatatnya di pasar dengan harga yang kompetitif.

Meskipun keuntungan awal, hambatan adopsi tetap ada. Jaringan komputasi terdesentralisasi harus mengambil langkah lebih lanjut untuk menghasilkan permintaan dan pasokan, dengan tim-tim yang sedang menjelajahi cara terbaik untuk menarik pengguna baru. Misalnya, pada awal 2024, Akash melewati Proposal 240, meningkatkan emisi AKT untuk penyedia GPU untuk mendorong lebih banyak pasokan, terutama untuk GPU high-end. Tim-tim juga sedang mengerjakan model proof-of-concept untuk mendemonstrasikan kemampuan langsung jaringan mereka kepada pengguna potensial. Akash sedang melatih model-model dasarnya dan telah meluncurkan produk chatbot dan generasi gambar yang memanfaatkan GPU Akash. Demikian pula, io.net telah mengembangkan model difusi stabil dan meluncurkan fungsionalitas jaringan baru untuk lebih meniru kinerja jaringan dan skala.

Pelatihan Pembelajaran Mesin Terdesentralisasi

Selain platform komputasi umum yang dapat memenuhi tuntutan kecerdasan buatan, sekelompok pemasok GPU AI profesional yang fokus pada pelatihan model pembelajaran mesin juga mulai muncul. Misalnya, Gensyn sedang 'mengkoordinasikan daya dan perangkat keras untuk membangun kecerdasan kolektif,' dengan filosofi bahwa 'jika seseorang ingin melatih sesuatu dan seseorang bersedia melatihnya, maka pelatihan ini harus diizinkan terjadi.'

Protokol ini melibatkan empat peserta utama: pengirim, solver, validator, dan whistleblower. Pengirim mengirimkan tugas dengan permintaan pelatihan ke jaringan. Tugas-tugas ini termasuk tujuan pelatihan, model yang akan dilatih, dan data pelatihan. Sebagai bagian dari proses pengiriman, pengirim perlu membayar biaya komputasi yang diperkirakan diperlukan oleh solver.

Setelah pengajuan, tugas diberikan kepada penyelesaian yang sebenarnya melakukan pelatihan model. Kemudian, penyelesaian mengajukan tugas yang sudah selesai kepada validator, yang bertanggung jawab untuk memeriksa pelatihan untuk memastikan bahwa itu diselesaikan dengan benar. Pelapor ditugaskan untuk memastikan validator bertindak jujur. Untuk memotivasi pelapor untuk berpartisipasi dalam jaringan, Gensyn berencana untuk secara teratur menawarkan bukti yang sengaja tidak benar, memberikan hadiah kepada pelapor yang menangkapnya.

Selain menyediakan komputasi untuk beban kerja terkait kecerdasan buatan, sebuah tawaran nilai kunci dari Gensyn adalah sistem verifikasinya, yang masih dalam pengembangan. Verifikasi diperlukan untuk memastikan bahwa komputasi eksternal oleh penyedia GPU dieksekusi dengan benar (yaitu, memastikan model pengguna dilatih sesuai keinginan mereka). Gensyn mengatasi masalah ini dengan pendekatan yang unik, menggunakan metode verifikasi baru yang disebut “bukti pembelajaran probabilistik, protokol tepat berbasis graf, dan permainan insentif gaya Truebit.” Ini adalah model pemecahan yang optimis yang memungkinkan validator mengonfirmasi bahwa solver telah menjalankan model dengan benar tanpa perlu sepenuhnya menjalankan ulang model mereka sendiri, sebuah proses yang mahal dan tidak efisien.

Selain metode verifikasi inovatifnya, Gensyn juga mengklaim lebih hemat biaya dibandingkan dengan alternatif terpusat dan pesaing mata uang kripto - menawarkan harga pelatihan ML hingga 80% lebih murah dari AWS, sambil melampaui proyek serupa seperti Truebit dalam uji coba.

Apakah hasil awal ini dapat direplikasi dalam skala besar di jaringan terdesentralisasi masih harus dilihat. Gensyn berharap dapat memanfaatkan kapasitas komputasi surplus dari penyedia seperti pusat data kecil, pengguna ritel, dan akhirnya perangkat mobile kecil seperti smartphone. Namun, seperti yang diakui tim Gensyn sendiri, bergantung pada penyedia komputasi heterogen memperkenalkan beberapa tantangan baru.

Untuk penyedia terpusat seperti Google Cloud dan Coreweave, biaya komputasi mahal, tetapi komunikasi antar komputasi (bandwidth dan laten) murah. Sistem ini dirancang untuk memfasilitasi komunikasi antar perangkat keras secepat mungkin. Gensyn mengganggu kerangka kerja ini dengan mengurangi biaya komputasi dengan memungkinkan siapa pun di dunia menawarkan GPU, tetapi pada saat yang sama meningkatkan biaya komunikasi, karena jaringan sekarang harus mengkoordinasikan pekerjaan komputasi di seluruh perangkat keras heterogen yang jauh. Gensyn belum diluncurkan, tetapi merupakan bukti konsep yang dapat dicapai saat membangun protokol pelatihan pembelajaran mesin terdesentralisasi.

Intelligence Umum Terdesentralisasi

Platform komputasi terdesentralisasi juga menawarkan kemungkinan untuk merancang metode penciptaan kecerdasan buatan. Bittensor adalah protokol komputasi terdesentralisasi yang dibangun di Substrate, berusaha menjawab pertanyaan, “Bagaimana kita mengubah kecerdasan buatan menjadi metode kolaboratif?” Bittensor bertujuan untuk mencapai desentralisasi dan komodifikasi generasi AI. Diluncurkan pada tahun 2021, ia berharap dapat memanfaatkan kekuatan model pembelajaran mesin kolaboratif untuk terus mengulang dan menghasilkan AI yang lebih baik.

Bittensor mengambil inspirasi dari Bitcoin, dengan mata uang aslinya, TAO, memiliki batas pasokan sebesar 21 juta dan siklus pengurangan setiap empat tahun (pengurangan pertama dijadwalkan pada tahun 2025). Berbeda dengan menggunakan Proof of Work untuk menghasilkan angka acak yang benar dan mendapatkan imbalan blok, Bittensor mengandalkan “Proof of Intelligence,” yang mengharuskan para penambang menjalankan model untuk menghasilkan output sebagai respons terhadap permintaan inferensi.

Mendorong Kecerdasan

Awalnya, Bittensor mengandalkan model Mixture of Experts (MoE) untuk menghasilkan output. Ketika permintaan inferensi diajukan, model MoE tidak bergantung pada model umum tetapi meneruskan permintaan ke model yang paling akurat untuk jenis input yang diberikan. Bayangkan membangun sebuah rumah, di mana Anda menyewa berbagai ahli untuk berbagai aspek proses konstruksi (misalnya, arsitek, insinyur, pelukis, pekerja konstruksi, dll.). MoE menerapkan ini pada model pembelajaran mesin, mencoba memanfaatkan output dari model yang berbeda berdasarkan input. Seperti yang dijelaskan oleh pendiri Bittensor, Ala Shaabana, ini seperti "berbicara dengan ruangan yang penuh dengan orang pintar untuk mendapatkan jawaban terbaik, daripada berbicara dengan satu orang." Karena tantangan dalam memastikan perutean yang benar, sinkronisasi pesan ke model yang benar, dan insentif, metode ini telah ditangguhkan hingga pengembangan proyek lebih lanjut.

Dalam jaringan Bittensor, ada dua partisipan utama: validator dan penambang. Validator mengirimkan permintaan inferensi ke penambang, meninjau output mereka, dan memberi peringkat berdasarkan kualitas respons mereka. Untuk memastikan peringkat mereka dapat diandalkan, validator diberi skor “vtrust” berdasarkan seberapa konsisten peringkat mereka dengan validator lainnya. Semakin tinggi skor vtrust seorang validator, semakin banyak emisi TAO yang mereka terima. Hal ini untuk mendorong validator mencapai konsensus tentang peringkat model dari waktu ke waktu, karena semakin banyak validator setuju tentang peringkat, semakin tinggi skor vtrust individu mereka.

Penambang, juga dikenal sebagai server, adalah peserta jaringan yang menjalankan model pembelajaran mesin yang sebenarnya. Mereka bersaing untuk memberikan output yang paling akurat untuk kueri validator, dan semakin akurat outputnya, semakin banyak emisi TAO yang mereka peroleh. Penambang bebas menghasilkan output ini sesuai keinginan. Misalnya, di masa depan, sangat mungkin bagi penambang Bittensor untuk sebelumnya melatih model di Gensyn dan menggunakannya untuk mendapatkan emisi TAO.

Hari ini, sebagian besar interaksi terjadi langsung antara validator dan penambang. Validator mengirimkan input ke penambang dan meminta output (yaitu, pelatihan model). Begitu validator mengajukan pertanyaan kepada penambang di jaringan dan menerima respons mereka, mereka menilai para penambang dan mengirimkan peringkat mereka ke jaringan.

Interaksi antara validator (mengandalkan PoS) dan penambang (mengandalkan Model Proof, sebuah bentuk PoW) dikenal sebagai konsensus Yuma. Ini bertujuan untuk memberikan insentif kepada penambang untuk menghasilkan output terbaik untuk mendapatkan emisi TAO dan memberikan insentif kepada validator untuk secara akurat menilai output penambang, mendapatkan skor vtrust yang lebih tinggi, dan meningkatkan imbalan TAO mereka, sehingga membentuk mekanisme konsensus untuk jaringan.

Subnet dan Aplikasi

Interaksi di Bittensor pada umumnya melibatkan validator mengirimkan permintaan kepada penambang dan mengevaluasi hasil keluaran mereka. Namun, seiring dengan peningkatan kualitas penambang kontribusi dan pertumbuhan kecerdasan jaringan secara keseluruhan, Bittensor sedang membuat lapisan aplikasi di atas tumpukan yang ada sehingga pengembang dapat membangun aplikasi yang mengakses jaringan Bittensor.

Pada Oktober 2023, Bittensor memperkenalkan subnets melalui upgrade Revolusi, mengambil langkah signifikan menuju pencapaian tujuan ini. Subnets adalah jaringan terpisah di Bittensor yang mendorong perilaku tertentu. Revolusi membuka jaringan bagi siapa pun yang tertarik untuk membuat subnets. Dalam beberapa bulan setelah diluncurkan, lebih dari 32 subnets telah diluncurkan, termasuk subnets untuk teks prompts, data scraping, generasi gambar, dan penyimpanan. Ketika subnets matang dan siap digunakan, pencipta subnet juga akan membuat integrasi aplikasi, memungkinkan tim untuk membangun aplikasi yang mengakses subnets tertentu. Beberapa aplikasi, seperti chatbots, pembuat gambar, bot balasan Twitter, dan pasar prediksi, memang ada tetapi tidak ada insentif formal selain pendanaan dari Yayasan Bittensor bagi validator untuk menerima dan meneruskan pertanyaan-pertanyaan ini.

Untuk penjelasan yang lebih jelas, di bawah ini adalah contoh bagaimana Bittensor mungkin berfungsi setelah aplikasi terintegrasi ke dalam jaringan.

Subnet menghasilkan TAO berdasarkan kinerja yang dievaluasi oleh jaringan root. Jaringan root, yang terletak di atas semua subnet, pada dasarnya bertindak sebagai subnet khusus dan dikelola oleh 64 validator subnet terbesar berdasarkan saham. Validator jaringan root meranking subnet berdasarkan kinerjanya dan secara berkala mengalokasikan emisi TAO ke subnet. Dengan cara ini, subnet individu bertindak sebagai penambang untuk jaringan root.

Visi Bittensor

Bittensor masih mengalami masa pertumbuhan saat memperluas fungsionalitas protokol untuk mendorong generasi kecerdasan di berbagai subnet. Para penambang terus merancang cara baru untuk menyerang jaringan demi lebih banyak imbalan TAO, misalnya dengan sedikit mengubah output inferensi yang sangat baik yang dijalankan oleh model mereka dan kemudian mengirimkan beberapa varian. Usulan tata kelola yang memengaruhi seluruh jaringan hanya dapat diajukan dan diimplementasikan oleh Triumvirate, yang terdiri sepenuhnya dari para pemegang saham dari Yayasan Opentensor (secara khusus, usulan memerlukan persetujuan dari Senat Bittensor, yang terdiri dari validator Bittensor, sebelum diimplementasikan). Tokenomika proyek sedang dimodifikasi untuk meningkatkan insentif untuk penggunaan TAO lintas-subnet. Proyek ini juga dengan cepat mendapatkan ketenaran karena pendekatannya yang unik, dengan CEO salah satu situs AI paling populer, HuggingFace, menyatakan bahwa Bittensor seharusnya menambahkan sumber dayanya ke situs.

Dalam artikel terbaru berjudul “Paradigma Bittensor” yang dipublikasikan oleh pengembang inti, tim menjabarkan visi Bittensor untuk akhirnya menjadi “agnostik terhadap apa yang diukur.” Secara teoritis, ini bisa memungkinkan Bittensor untuk mengembangkan subnet yang mendorong berbagai jenis perilaku yang didukung oleh TAO. Masih ada batasan praktis yang cukup signifikan—terutama, membuktikan bahwa jaringan-jaringan ini dapat berkembang untuk menangani berbagai proses dan insentif potensial mendorong kemajuan di luar produk-produk terpusat.

Membangun Tumpukan Komputasi Terdesentralisasi untuk Model Kecerdasan Buatan

Bagian di atas memberikan gambaran mendalam tentang berbagai jenis protokol komputasi kecerdasan buatan (AI) terdesentralisasi yang saat ini sedang dikembangkan. Dalam tahap awal pengembangan dan adopsi, mereka membentuk dasar bagi sebuah ekosistem yang pada akhirnya bisa memfasilitasi penciptaan "blok bangunan AI," mirip dengan konsep "money Legos" dalam DeFi. Komposabilitas blockchain tanpa izin memungkinkan setiap protokol untuk dibangun di atas yang lain, menciptakan ekosistem AI terdesentralisasi yang lebih komprehensif.
Sebagai contoh, inilah bagaimana Akash, Gensyn, dan Bittensor mungkin berinteraksi untuk merespons permintaan inferensi.

Penting untuk memahami bahwa ini hanyalah contoh dari apa yang bisa terjadi di masa depan, bukan representasi dari ekosistem saat ini, kemitraan yang ada, atau hasil yang potensial. Keterbatasan interoperabilitas dan pertimbangan lain yang dijelaskan di bawah ini secara signifikan membatasi kemungkinan integrasi saat ini. Selain itu, fragmentasi likuiditas dan kebutuhan untuk menggunakan beberapa token bisa merugikan pengalaman pengguna, seperti yang dicatat oleh para pendiri Akash dan Bittensor.

Produk Terdesentralisasi Lainnya

Selain komputasi, beberapa layanan infrastruktur terdesentralisasi lainnya telah diperkenalkan untuk mendukung ekosistem AI yang muncul dalam ruang kripto. Mendaftar semua ini di luar cakupan laporan ini, tetapi beberapa contoh menarik dan menggambarkan termasuk:

  • Ocean: sebuah pasar data terdesentralisasi di mana pengguna dapat membuat data NFT yang mewakili data mereka dan membeli dengan menggunakan token data. Pengguna dapat memonetisasi data mereka dan memiliki kedaulatan yang lebih besar atasnya, sambil memberikan tim AI akses ke data yang diperlukan untuk pengembangan dan pelatihan model.
  • Grass: Sebuah pasar bandwidth terdesentralisasi di mana pengguna dapat menjual bandwidth berlebih mereka kepada perusahaan AI, yang menggunakannya untuk mengambil data dari internet. Dibangun di jaringan Wynd, ini memungkinkan individu untuk memonetisasi bandwidth mereka dan memberikan pembeli bandwidth perspektif yang lebih beragam tentang apa yang dilihat pengguna individu secara online (karena akses internet individu sering disesuaikan berdasarkan alamat IP mereka).
  • HiveMapper: Membangun produk peta terdesentralisasi yang menggabungkan informasi yang dikumpulkan dari pengemudi sehari-hari. HiveMapper bergantung pada kecerdasan buatan untuk menginterpretasikan gambar yang dikumpulkan dari kamera dasbor pengguna dan memberi pengguna imbalan token untuk membantu menyempurnakan model AI melalui Umpan Balik Pembelajaran Manusia yang Diperkuat (RHLF).

Secara keseluruhan, contoh-contoh ini menunjukkan peluang yang hampir tak terbatas untuk mengeksplorasi model pasar terdesentralisasi yang mendukung model AI atau infrastruktur periferal yang diperlukan untuk mengembangkannya. Saat ini, sebagian besar proyek ini berada dalam tahap proof-of-concept dan memerlukan penelitian dan pengembangan lebih lanjut untuk membuktikan bahwa mereka dapat beroperasi pada skala yang diperlukan untuk menyediakan layanan AI yang komprehensif.

Outlook

Produk komputasi terdesentralisasi masih dalam tahap awal pengembangan. Mereka baru saja mulai meluncurkan kemampuan komputasi mutakhir, mampu melatih model kecerdasan buatan paling kuat dalam produksi. Untuk mendapatkan pangsa pasar yang signifikan, mereka perlu menunjukkan keunggulan nyata dibandingkan dengan alternatif terpusat. Pemicu potensial untuk adopsi lebih luas termasuk:

  • Penawaran/Demand GPU. Kelangkaan GPU yang dikombinasikan dengan permintaan komputasi yang meningkat dengan cepat sedang mengarah pada perlombaan senjata GPU. Karena keterbatasan GPU, OpenAI kadang-kadang membatasi akses ke platformnya. Platform seperti Akash dan Gensyn dapat menawarkan alternatif yang kompetitif biaya bagi tim yang membutuhkan komputasi berperforma tinggi. 6-12 bulan ke depan menawarkan kesempatan yang sangat unik bagi penyedia komputasi terdesentralisasi untuk menarik pengguna baru yang terpaksa mempertimbangkan produk terdesentralisasi karena kurangnya akses pasar yang lebih luas. Selain itu, dengan kinerja model open-source yang semakin baik seperti LLaMA2 milik Meta, pengguna tidak lagi menghadapi hambatan yang sama saat menggunakan model yang disesuaikan dengan baik, membuat sumber daya komputasi menjadi bottleneck utama. Namun, keberadaan platform saja tidak menjamin pasokan komputasi yang memadai dan permintaan konsumen yang sesuai. Mendapatkan GPU high-end tetap menantang, dan biaya tidak selalu menjadi motivator utama permintaan. Platform-platform ini akan menghadapi tantangan dalam menunjukkan manfaat sebenarnya dari menggunakan opsi komputasi terdesentralisasi (baik karena biaya, ketahanan sensor, uptime dan ketahanan, atau aksesibilitas) untuk menarik pengguna yang loyal. Mereka harus bertindak cepat karena investasi dan konstruksi infrastruktur GPU sedang berlangsung dengan kecepatan yang mengagumkan.
  • Peraturan. Regulasi tetap menjadi penghalang bagi gerakan komputasi terdesentralisasi. Dalam jangka pendek, kurangnya regulasi yang jelas berarti penyedia dan pengguna menghadapi potensi risiko dalam menggunakan layanan ini. Bagaimana jika penyedia menawarkan perhitungan atau pembeli tanpa sadar membeli perhitungan dari entitas yang terkena sanksi? Pengguna mungkin ragu untuk menggunakan platform terdesentralisasi yang tidak memiliki kontrol dan pengawasan terpusat. Protokol berusaha untuk mengurangi kekhawatiran ini dengan memasukkan kontrol ke dalam platform mereka atau menambahkan filter untuk mengakses hanya penyedia komputasi yang dikenal (yaitu, mereka yang telah memberikan informasi Know Your Customer (KYC)), tetapi pendekatan yang lebih kuat diperlukan untuk melindungi privasi sambil memastikan kepatuhan. Dalam jangka pendek, kita mungkin melihat munculnya KYC dan platform kepatuhan yang membatasi akses ke protokol mereka untuk mengatasi masalah ini. Selain itu, diskusi seputar kemungkinan kerangka peraturan baru di AS (dicontohkan oleh penerbitan Perintah Eksekutif tentang Mempromosikan Pengembangan dan Penggunaan Kecerdasan Buatan yang Aman, Andal, dan Dapat Dipercaya) menyoroti potensi tindakan pengaturan untuk lebih membatasi akses GPU.
  • Sensor. Regulasi adalah pedang bermata dua, dan produk komputasi terdesentralisasi bisa mendapat manfaat dari tindakan yang membatasi akses ke kecerdasan buatan. Selain perintah eksekutif, pendiri OpenAI Sam Altman bersaksi di Kongres bahwa regulator seharusnya mengeluarkan lisensi untuk pengembangan kecerdasan buatan. Pembicaraan mengenai regulasi kecerdasan buatan baru saja dimulai, tetapi upaya apapun untuk membatasi akses atau menyensor kemampuan kecerdasan buatan bisa mempercepat adopsi platform-platform terdesentralisasi yang tidak menghadapi hambatan-hambatan tersebut. Perubahan kepemimpinan (atau ketidakterdapatannya) di OpenAI pada bulan November juga menunjukkan bahwa menyerahkan keputusan terhadap kekuatan model kecerdasan buatan yang paling kuat kepada beberapa orang adalah berisiko. Selain itu, semua model kecerdasan buatan pada akhirnya mencerminkan bias dari mereka yang membuatnya, sengaja atau tidak. Salah satu cara untuk menghilangkan bias-bias ini adalah dengan membuat model-model sebuka mungkin untuk disesuaikan dan dilatih, memastikan siapapun, di manapun, dapat mengakses berbagai model dengan berbagai bias.
  • Privasi Data. Komputasi terdesentralisasi bisa lebih menarik daripada alternatif terpusat ketika terintegrasi dengan solusi data eksternal dan privasi yang menawarkan kedaulatan data pengguna. Samsung menjadi korban ketika menyadari insinyur menggunakan ChatGPT untuk desain chip dan bocor informasi sensitif ke ChatGPT. Jaringan Phala dan iExec mengklaim memberikan pengguna dengan enclave SGX yang aman untuk melindungi data pengguna, dan penelitian enkripsi homomorfik penuh yang sedang berlangsung bisa lebih lanjut membuka kunci komputasi terdesentralisasi yang menjaga privasi. Ketika Kecerdasan Buatan semakin terintegrasi ke dalam kehidupan kita, pengguna akan semakin menghargai kemampuan untuk menjalankan model pada aplikasi dengan perlindungan privasi. Pengguna juga memerlukan dukungan untuk layanan komposabilitas data, sehingga mereka dapat dengan lancar memindahkan data dari satu model ke model lainnya.
  • Pengalaman Pengguna (UX). Pengalaman pengguna tetap menjadi hambatan signifikan untuk adopsi lebih luas dari semua jenis aplikasi kripto dan infrastruktur. Hal ini tidak berbeda untuk produk komputasi terdesentralisasi dan diperparah dalam beberapa kasus karena para pengembang perlu memahami baik mata uang kripto maupun kecerdasan buatan. Perbaikan perlu dimulai dari hal-hal dasar, seperti bergabung dan mengekstraksi interaksi dengan blockchain, untuk menghasilkan output berkualitas tinggi yang sama dengan pemimpin pasar saat ini. Hal ini terbukti mengingat kesulitan banyak protokol komputasi terdesentralisasi yang dapat dioperasikan dan menawarkan produk lebih murah dalam mendapatkan penggunaan reguler.

Kontrak pintar dan zkML

Kontrak pintar adalah landasan dari setiap ekosistem blockchain. Mereka secara otomatis dieksekusi di bawah serangkaian kondisi tertentu, mengurangi atau menghilangkan kebutuhan akan pihak ketiga yang dipercayai, sehingga memungkinkan penciptaan aplikasi terdesentralisasi yang kompleks, seperti yang ada di DeFi. Namun, fungsionalitas kontrak pintar masih terbatas karena mereka beroperasi berdasarkan parameter yang telah ditetapkan yang harus diperbarui.

Sebagai contoh, kontrak pintar diterapkan untuk protokol peminjaman/peminjaman, yang berisi spesifikasi kapan posisi harus dilikuidasi berdasarkan rasio pinjaman ke nilai tertentu. Meskipun berguna di lingkungan statis, kontrak pintar ini memerlukan pembaruan konstan untuk beradaptasi dengan perubahan dalam toleransi risiko dalam situasi dinamis, menimbulkan tantangan bagi kontrak yang tidak dikelola melalui proses terpusat. Sebagai contoh, DAO yang mengandalkan proses pengaturan terdesentralisasi mungkin tidak bereaksi dengan cukup cepat terhadap risiko sistemik.

Mengintegrasikan kecerdasan buatan (yaitu, model pembelajaran mesin) ke dalam kontrak pintar adalah cara potensial untuk meningkatkan fungsionalitas, keamanan, dan efisiensi sambil meningkatkan pengalaman pengguna secara keseluruhan. Namun, integrasi ini juga memperkenalkan risiko tambahan, karena tidak mungkin untuk memastikan model-model yang mendasari kontrak pintar ini tidak akan dieksploitasi atau gagal menginterpretasikan situasi long-tail (diberikan kelangkaan masukan data, situasi long-tail sulit bagi model untuk dilatih).

Machine Learning Zero Pengetahuan (zkML)

Machine learning memerlukan perhitungan yang signifikan untuk menjalankan model-model kompleks, sehingga menjadi tidak praktis untuk langsung menjalankan model AI dalam kontrak pintar karena biaya tinggi. Sebagai contoh, protokol DeFi yang menawarkan model optimisasi hasil akan kesulitan untuk menjalankan model-model ini on-chain tanpa menimbulkan biaya Gas yang melarang. Salah satu solusinya adalah meningkatkan kemampuan komputasi dari blockchain yang mendasarinya. Namun, hal ini juga meningkatkan persyaratan untuk validator-chain, yang berpotensi mengorbankan desentralisasi. Sebaliknya, beberapa proyek sedang menjelajahi penggunaan zkML untuk memverifikasi output secara tidak dapat dipercaya tanpa memerlukan komputasi on-chain yang intensif.

Sebuah contoh umum yang menggambarkan kegunaan zkML adalah ketika pengguna memerlukan orang lain untuk menjalankan data melalui model dan memverifikasi bahwa rekan mereka memang telah menjalankan model yang benar. Pengembang yang menggunakan penyedia komputasi terdesentralisasi untuk melatih model mereka mungkin khawatir tentang penyedia ini memotong biaya dengan menggunakan model-model yang lebih murah yang menghasilkan output dengan perbedaan yang hampir tidak terlihat. zkML memungkinkan penyedia komputasi untuk menjalankan data melalui model mereka dan kemudian menghasilkan bukti yang dapat diverifikasi di rantai, membuktikan bahwa output model untuk input yang diberikan benar. Dalam skenario ini, penyedia model memperoleh keuntungan tambahan dengan dapat menawarkan model mereka tanpa harus mengungkapkan bobot yang mendasari yang menghasilkan output.

Kebalikannya juga mungkin terjadi. Jika pengguna ingin menjalankan model pada data mereka tetapi tidak ingin memberikan akses proyek model ke data mereka karena kekhawatiran privasi (misalnya, dalam pemeriksaan medis atau informasi bisnis properti), mereka dapat menjalankan model pada data mereka tanpa berbagi data, dan kemudian memverifikasi melalui bukti bahwa mereka telah menjalankan model yang benar. Kemungkinan ini sangat memperluas ruang desain untuk mengintegrasikan fungsionalitas AI dan kontrak pintar dengan mengatasi kendala komputasi yang menakutkan.

Infrastruktur dan alat

Dengan tahap awal dari bidang zkML, pengembangan terutama difokuskan pada membangun infrastruktur dan alat yang dibutuhkan tim untuk mengonversi model dan output mereka menjadi bukti yang dapat diverifikasi di rantai. Produk-produk ini mengabstraksi aspek zero-knowledge sebanyak mungkin.

EZKL dan Giza adalah dua proyek yang membangun alat-alat tersebut dengan menyediakan bukti-bukti yang dapat diverifikasi dari eksekusi model pembelajaran mesin. Kedua proyek ini membantu tim dalam membangun model pembelajaran mesin untuk memastikan bahwa model-model ini dapat dieksekusi dengan cara yang memungkinkan hasilnya diverifikasi secara on-chain dengan cara yang dapat dipercaya. Kedua proyek ini menggunakan Open Neural Network Exchange (ONNX) untuk mengonversi model-model pembelajaran mesin yang ditulis dalam bahasa umum seperti TensorFlow dan Pytorch ke dalam format standar. Mereka kemudian menghasilkan versi-versi dari model-model ini yang juga menghasilkan bukti zk saat dieksekusi. EZKL adalah open-source, menghasilkan zk-SNARKs, sementara Giza adalah closed-source, menghasilkan zk-STARKs. Kedua proyek ini saat ini hanya kompatibel dengan EVM.

Dalam beberapa bulan terakhir, EZKL telah membuat kemajuan signifikan dalam meningkatkan solusi zkML, terutama berfokus pada pengurangan biaya, peningkatan keamanan, dan percepatan generasi bukti. Sebagai contoh, pada November 2023, EZKL mengintegrasikan perpustakaan GPU sumber terbuka yang baru yang mengurangi waktu bukti agregasi sebesar 35%; pada Januari, EZKL merilis Lilith, solusi perangkat lunak untuk mengintegrasikan klaster komputasi berkinerja tinggi dan mengatur sistem pekerjaan simultan saat menggunakan bukti EZKL. Keunikan Giza terletak pada penyediaan alat untuk membuat model pembelajaran mesin yang dapat diverifikasi dan merencanakan untuk menerapkan versi web3 dari Hugging Face, membuka pasar pengguna untuk kolaborasi zkML dan berbagi model, dan akhirnya mengintegrasikan produk komputasi terdesentralisasi. Pada Januari, EZKL memublikasikan evaluasi benchmark yang membandingkan kinerja EZKL, Giza, dan RiscZero (sebagaimana dijelaskan di bawah), menampilkan waktu bukti yang lebih cepat dan penggunaan memori.

Modulus Labs saat ini sedang mengembangkan teknologi bukti zero-knowledge (zk) baru yang dikhususkan untuk model AI. Modulus merilis sebuah paper berjudul “Intelligent Cost,” yang menyiratkan bahwa menjalankan model AI on-chain mengakibatkan biaya yang terlalu tinggi. Paper ini, yang diterbitkan pada Januari 2023, melakukan benchmark terhadap sistem bukti zk yang ada untuk mengidentifikasi peningkatan dalam kemampuan bukti zk dan hambatan dalam model AI. Paper ini mengungkapkan bahwa produk-produk saat ini terlalu mahal dan tidak efisien untuk aplikasi AI berskala besar. Melanjutkan penelitian awal, Modulus meluncurkan Remainder pada bulan November, sebuah zk prover khusus yang bertujuan untuk mengurangi biaya dan waktu bukti untuk model AI, membuat proyek-proyek tersebut ekonomis untuk integrasi berskala besar ke dalam smart contracts. Karya mereka bersifat properti, sehingga tidak mungkin untuk dijadikan benchmark terhadap solusi-solusi yang disebutkan, namun baru-baru ini disebutkan dalam pos blog Vitalik tentang kriptografi dan kecerdasan buatan.

Pengembangan alat dan infrastruktur sangat penting untuk pertumbuhan masa depan ruang zkML, karena dapat secara signifikan mengurangi gesekan yang terlibat dalam penyebaran perhitungan off-chain yang dapat diverifikasi dan kebutuhan untuk tim zk. Membuat antarmuka yang aman untuk praktisi pembelajaran mesin non-kripto-natif membawa model mereka ke on-chain akan memungkinkan aplikasi untuk bereksperimen dengan kasus penggunaan yang benar-benar baru. Selain itu, alat-alat ini mengatasi hambatan utama untuk adopsi yang lebih luas zkML: kurangnya pengembang yang berpengetahuan tertarik untuk bekerja di persimpangan pengetahuan, pembelajaran mesin, dan kriptografi nol pengetahuan.

Coprocessor

Solusi lain dalam pengembangan, disebut sebagai "coprocessors" (termasuk RiscZero, Axiom, dan Ritual), melayani berbagai peran, termasuk memverifikasi perhitungan off-chain on-chain. Seperti EZKL, Giza, dan Modulus, tujuan mereka adalah untuk mengabstraksi proses pembuatan bukti zk sepenuhnya, menciptakan mesin virtual tanpa pengetahuan yang mampu mengeksekusi program off-chain dan menghasilkan bukti yang dapat diverifikasi secara on-chain. RiscZero dan Axiom melayani model AI sederhana sebagai koprosesor tujuan umum, sementara Ritual dibangun khusus untuk digunakan dengan model AI.

Pertama kali Ritual, Infernet, mencakup Infernet SDK yang memungkinkan pengembang mengirimkan permintaan inferensi ke jaringan dan menerima output serta bukti opsional sebagai balasannya. Node Infernet memproses komputasi di luar rantai ini sebelum mengembalikan output. Sebagai contoh, sebuah DAO bisa mendirikan proses yang memastikan semua proposal tata kelola baru memenuhi syarat tertentu sebelum diserahkan. Setiap kali proposal baru diajukan, kontrak tata kelola memicu permintaan inferensi melalui Infernet, memanggil model AI yang dilatih khusus untuk tata kelola DAO. Model ini meninjau proposal untuk memastikan semua standar yang diperlukan terpenuhi dan mengembalikan output serta bukti untuk menyetujui atau menolak pengajuan proposal.

Selama setahun ke depan, tim Ritual berencana untuk memperkenalkan lebih banyak fitur, membentuk lapisan infrastruktur yang dikenal sebagai superchain Ritual. Banyak proyek yang dibahas dapat diintegrasikan sebagai penyedia layanan ke dalam Ritual. Tim Ritual telah mengintegrasikan EZKL untuk pembuatan bukti dan mungkin segera menambah fitur dari penyedia terkemuka lainnya. Node Infernet di Ritual juga dapat memanfaatkan GPU Akash atau io.net dan model kueri yang dilatih di subnet Bittensor. Tujuan utama mereka adalah menjadi penyedia infrastruktur AI terbuka yang disukai, menawarkan layanan untuk pembelajaran mesin dan tugas-tugas AI lainnya untuk setiap jaringan dan beban kerja.

Aplikasi

zkML membantu untuk mendamaikan dikotomi antara blockchain, yang secara inheren terbatas sumber dayanya, dan kecerdasan buatan, yang membutuhkan sumber daya komputasi dan data yang signifikan. Seperti yang dikatakan pendiri Giza, 'kasus penggunaannya sangat kaya... Ini agak seperti bertanya apa kasus penggunaan untuk kontrak pintar di awal Ethereum... Apa yang kami lakukan hanyalah memperluas kasus penggunaan untuk kontrak pintar.' Namun, seperti yang dicatat, perkembangan saat ini terutama terjadi pada level alat dan infrastruktur. Aplikasi masih berada dalam fase eksplorasi, dengan tim menghadapi tantangan untuk membuktikan bahwa nilai yang dihasilkan dengan menerapkan model dengan zkML melebihi kompleksitas dan biayanya.

Aplikasi saat ini termasuk:

  • Keuangan Terdesentralisasi (DeFi). zkML meningkatkan kemampuan kontrak pintar, meningkatkan ruang desain untuk DeFi. Protokol DeFi menawarkan banyak data yang dapat diverifikasi dan tidak berubah untuk model pembelajaran mesin untuk digunakan dalam menghasilkan strategi hasil atau perdagangan, analisis risiko, pengalaman pengguna, dll. Misalnya, Giza telah berkolaborasi dengan Yearn Finance untuk membangun mesin penilaian risiko otomatis proof-of-concept untuk brankas v3 baru Yearn. Modulus Labs bekerja sama dengan Lyra Finance untuk mengintegrasikan pembelajaran mesin ke dalam AMM-nya, dengan Ion Protocol untuk mengimplementasikan model untuk menganalisis risiko validator, dan membantu Upshot dalam memvalidasi informasi harga NFT yang didukung AI. Protokol seperti NOYA (menggunakan EZKL) dan Mozaic menyediakan akses ke model off-chain eksklusif, memungkinkan pengguna untuk mengakses penambangan likuiditas otomatis sambil memvalidasi input dan bukti data on-chain. Spectral Finance sedang mengembangkan mesin penilaian kredit on-chain untuk memprediksi kemungkinan peminjam Compound atau Aave gagal membayar pinjaman. Karena zkML, apa yang disebut produk "De-Ai-Fi" ini kemungkinan akan menjadi semakin populer di tahun-tahun mendatang.
  • Gaming. Game telah lama dianggap untuk gangguan dan peningkatan melalui blockchain publik. zkML memungkinkan permainan kecerdasan buatan on-chain. Modulus Labs telah mewujudkan bukti konsep untuk permainan on-chain yang sederhana. “Leela vs the World” adalah permainan catur berbasis teori permainan di mana pengguna bersaing melawan model catur AI, dengan zkML memverifikasi setiap langkah Leela berdasarkan model berjalan permainan. Demikian pula, tim menggunakan kerangka EZKL untuk membangun kompetisi menyanyi sederhana dan permainan tic-tac-toe on-chain. Cartridge menggunakan Giza untuk memungkinkan tim men-deploy permainan sepenuhnya on-chain, baru-baru ini menyoroti permainan mengemudi AI sederhana di mana pengguna dapat bersaing untuk menciptakan model yang lebih baik untuk mobil yang mencoba menghindari rintangan. Meskipun sederhana, bukti konsep ini menunjukkan implementasi masa depan yang mampu melakukan verifikasi on-chain yang lebih kompleks, seperti aktor NPC kompleks yang dapat berinteraksi dengan ekonomi dalam permainan, seperti yang terlihat dalam “AI Arena,” permainan Super Smash Brothers di mana pemain dapat melatih pejuang mereka dan kemudian mendeploy mereka sebagai model AI untuk bertarung.
  • Identitas, Provenans, dan Privasi. Mata Uang Kripto telah digunakan untuk memverifikasi keaslian dan melawan masalah yang semakin meningkat terkait konten yang dihasilkan/diubah oleh kecerdasan buatan dan deep fake. zkML dapat memajukan upaya-upaya ini. WorldCoin adalah solusi verifikasi identitas yang meminta pengguna memindai iris mereka untuk menghasilkan ID unik. Di masa depan, ID biometrik bisa disimpan sendiri di perangkat pribadi menggunakan enkripsi dan diverifikasi menggunakan model yang berjalan secara lokal. Pengguna kemudian dapat memberikan bukti biometrik tanpa mengungkap identitas mereka, sehingga dapat melindungi diri dari serangan Sybil sambil memastikan privasi. Hal ini juga dapat diterapkan pada inferensi-inferensi lain yang memerlukan privasi, seperti menggunakan model untuk menganalisis data/gambar medis untuk deteksi penyakit, memverifikasi kepribadian, dan mengembangkan algoritma pencocokan dalam aplikasi kencan, atau lembaga asuransi dan peminjaman yang perlu memverifikasi informasi keuangan.

Tinjauan

zkML tetap bersifat eksperimental, dengan sebagian besar proyek berfokus pada membangun primitif infrastruktur dan bukti konsep. Tantangan saat ini termasuk biaya komputasi, batasan memori, kompleksitas model, keterbatasan alat dan infrastruktur, dan talenta pengembang. Singkatnya, masih banyak pekerjaan yang harus dilakukan sebelum zkML dapat diimplementasikan dalam skala yang diperlukan oleh produk konsumen.

Namun, seiring dengan berkembangnya bidang ini dan penyelesaian terhadap keterbatasan-keterbatasan ini, zkML akan menjadi komponen kunci dalam mengintegrasikan kecerdasan buatan dengan kriptografi. Pada dasarnya, zkML berjanji untuk membawa skala komputasi off-chain ke on-chain, sambil tetap mempertahankan jaminan keamanan yang sama atau serupa seperti berjalan on-chain. Namun, sebelum visi ini terwujud, pengguna awal teknologi akan terus harus menyeimbangkan privasi dan keamanan zkML dengan efisiensi dari alternatif-alternatif.

Agen Kecerdasan Buatan

Agen Kecerdasan Buatan

Salah satu integrasi yang paling menarik dari kecerdasan buatan dan mata uang kripto adalah eksperimen yang sedang berlangsung dengan agen kecerdasan buatan. Agen adalah robot otonom yang mampu menerima, menginterpretasikan, dan mengeksekusi tugas menggunakan model AI. Ini bisa bervariasi mulai dari memiliki asisten pribadi yang tersedia setiap saat, disesuaikan dengan preferensi Anda, hingga menyewa agen keuangan untuk mengelola dan menyesuaikan portofolio investasi Anda berdasarkan preferensi risiko Anda.

Mengingat bahwa cryptocurrency menawarkan infrastruktur pembayaran tanpa izin dan tanpa kepercayaan, agen dan cryptocurrency dapat diintegrasikan dengan baik. Setelah dilatih, agen akan memiliki dompet, memungkinkan mereka untuk melakukan transaksi sendiri menggunakan kontrak pintar. Misalnya, agen saat ini dapat mengikis informasi di internet dan kemudian berdagang di pasar prediksi berdasarkan model.

Penyedia Agen

Morpheus adalah salah satu proyek agen open-source terbaru yang diluncurkan pada tahun 2024 di Ethereum dan Arbitrum. White paper-nya diterbitkan secara anonim pada September 2023, memberikan dasar untuk pembentukan dan pembangunan komunitas, termasuk tokoh-tokoh terkemuka seperti Erik Vorhees. White paper ini mencakup protokol agen pintar yang dapat diunduh, LLM open-source yang dapat dijalankan secara lokal, dikelola oleh dompet pengguna, dan berinteraksi dengan kontrak pintar. Ini menggunakan peringkat kontrak pintar untuk membantu agen menentukan kontrak pintar mana yang dapat berinteraksi dengan aman berdasarkan kriteria seperti jumlah transaksi yang diproses.

Buku putih ini juga menyediakan kerangka kerja untuk membangun jaringan Morpheus, termasuk struktur insentif dan infrastruktur yang diperlukan untuk menjalankan protokol agen pintar. Ini termasuk insentif bagi kontributor untuk membangun front-end untuk berinteraksi dengan agen, API bagi pengembang untuk membangun agen plug-in untuk interaksi timbal balik, dan solusi cloud bagi pengguna untuk mengakses komputasi dan penyimpanan yang diperlukan untuk menjalankan agen di perangkat edge. Pendanaan awal proyek diluncurkan pada awal Februari, dengan protokol penuh diharapkan akan diluncurkan pada kuartal kedua 2024.

Decentralized Autonomous Infrastructure Network (DAIN) adalah protokol infrastruktur agen baru yang membangun ekonomi agen-ke-agen di Solana. Tujuan DAIN adalah memungkinkan agen dari berbagai perusahaan untuk berinteraksi secara mulus satu sama lain melalui API umum, membuka ruang desain yang signifikan untuk agen kecerdasan buatan, berfokus pada agen yang dapat berinteraksi dengan produk web2 dan web3. Pada bulan Januari, DAIN mengumumkan kemitraan pertamanya dengan Asset Shield, memungkinkan pengguna untuk menambahkan "penandatangan agen" ke multisigs mereka, yang mampu mengartikan transaksi dan menyetujui/menolak berdasarkan aturan yang ditetapkan pengguna.

Fetch.AI adalah salah satu protokol agen AI yang diterapkan secara early dan telah mengembangkan ekosistem untuk membangun, menerapkan, dan menggunakan agen on-chain menggunakan token FET dan dompet Fetch.AI. Protokol ini menawarkan rangkaian alat dan aplikasi yang komprehensif untuk menggunakan agen, termasuk fungsi dompet-in untuk berinteraksi dengan dan memesan agen.

Autonolas, yang didirikan oleh mantan anggota tim Fetch, adalah pasar terbuka untuk membuat dan menggunakan agen AI terdesentralisasi. Autonolas juga menyediakan serangkaian alat bagi pengembang untuk membangun agen AI yang di-host di luar rantai yang dapat terhubung ke beberapa blockchain, termasuk Polygon, Ethereum, Gnosis Chain, dan Solana. Saat ini, mereka memiliki beberapa produk konsep bukti agen aktif, termasuk untuk pasar prediksi dan tata kelola DAO.

SingularityNet sedang membangun pasar terdesentralisasi untuk agen kecerdasan buatan, di mana agen kecerdasan buatan khusus dapat dikerahkan, yang dapat disewa oleh orang lain atau agen untuk melakukan tugas-tugas kompleks. Perusahaan lain seperti AlteredStateMachine sedang membangun integrasi agen kecerdasan buatan dengan NFT. Pengguna mencetak NFT dengan atribut-atribut acak, yang memberi mereka kelebihan dan kekurangan dalam tugas-tugas yang berbeda. Agen-agen ini kemudian dapat dilatih untuk meningkatkan atribut-atribut tertentu untuk digunakan dalam permainan, DeFi, atau sebagai asisten virtual dan diperdagangkan dengan pengguna lain.

Secara keseluruhan, proyek-proyek ini memvisualisasikan suatu ekosistem masa depan dari agen-agen yang mampu bekerja secara kolaboratif bukan hanya untuk melakukan tugas-tugas tetapi juga untuk membantu membangun kecerdasan buatan umum. Agen-agen yang benar-benar kompleks akan memiliki kemampuan untuk menyelesaikan tugas-tugas pengguna secara otonom. Sebagai contoh, agen-agen yang sepenuhnya otonom akan mampu menemukan cara untuk mempekerjakan agen lain untuk mengintegrasikan sebuah API, kemudian mengeksekusi suatu tugas tanpa harus memastikan bahwa agen tersebut sudah terintegrasi dengan API-Api eksternal (seperti situs pemesanan perjalanan) sebelum penggunaan. Dari sudut pandang pengguna, tidak perlu memeriksa apakah suatu agen dapat menyelesaikan suatu tugas, karena agen tersebut dapat menentukannya sendiri.

Bitcoin dan Agen AI

Pada Juli 2023, Lightning Labs meluncurkan implementasi konsep bukti untuk memanfaatkan agen di Jaringan Lightning, yang dijuluki paket Bitcoin oleh LangChain. Produk ini sangat menarik karena bertujuan untuk menangani masalah yang semakin parah di dunia Web 2—kunci API yang tergabung dan mahal dari aplikasi web.

LangChain mengatasi masalah ini dengan menyediakan pengembang dengan serangkaian alat yang memungkinkan agen untuk membeli, menjual, dan menyimpan Bitcoin, serta untuk mengambil kunci API dan mengirim pembayaran mikro. Pada rel pembayaran tradisional, pembayaran mikro sangat mahal karena biaya, tetapi di Jaringan Lightning, agen dapat mengirim sejumlah pembayaran mikro setiap hari dengan biaya minimal. Ketika digunakan bersama dengan kerangka kerja API metering pembayaran L402 LangChain, perusahaan dapat menyesuaikan biaya akses API mereka berdasarkan peningkatan dan penurunan penggunaan, daripada menetapkan standar tunggal yang mahal.

Di masa depan, aktivitas rantai akan didorong secara dominan oleh interaksi antara agen dan agen, yang memerlukan mekanisme untuk memastikan agen dapat berinteraksi satu sama lain tanpa biaya yang melarang. Contoh awal ini menunjukkan potensi penggunaan agen pada rel pembayaran tanpa izin dan efisien secara ekonomi, membuka kemungkinan untuk pasar dan interaksi ekonomi baru.

Tinjauan

Bidang agen masih dalam tahap awal. Proyek-proyek baru saja mulai meluncurkan agen fungsional yang mampu menangani tugas-tugas sederhana—akses biasanya terbatas pada pengembang dan pengguna berpengalaman. Namun, seiring berjalannya waktu, salah satu dampak paling signifikan dari agen kecerdasan buatan pada mata uang kripto akan menjadi peningkatan pengalaman pengguna di semua sektor. Transaksi akan mulai beralih dari berbasis klik menjadi berbasis teks, memungkinkan pengguna berinteraksi dengan agen on-chain melalui antarmuka percakapan. Tim seperti Dawn Wallet sudah meluncurkan dompet chatbot, memungkinkan pengguna berinteraksi on-chain.

Selain itu, masih belum jelas bagaimana agen akan beroperasi di Web 2, karena rel keuangan mengandalkan lembaga perbankan yang diatur yang tidak dapat beroperasi 24/7 atau memfasilitasi transaksi lintas batas yang lancar. Seperti yang disorot oleh Lyn Alden, kurangnya pengembalian dana dan kemampuan untuk menangani mikrotransaksi membuat rel mata uang kripto terutama menarik dibandingkan dengan kartu kredit. Namun, jika agen menjadi medium yang lebih umum untuk transaksi, penyedia pembayaran dan aplikasi yang ada kemungkinan akan cepat beradaptasi, mengimplementasikan infrastruktur yang diperlukan untuk beroperasi pada rel keuangan yang ada, sehingga mengurangi beberapa manfaat menggunakan mata uang kripto.

Saat ini, agen mungkin terbatas pada transaksi mata uang kripto deterministik, di mana input tertentu menjamin output tertentu. Kedua model telah menguraikan kemampuan agen ini untuk mencari tahu cara melakukan tugas kompleks, dan alat-alat sedang memperluas rentang tugas yang dapat mereka selesaikan, yang semuanya memerlukan pengembangan lebih lanjut. Agar agen kripto menjadi berguna di luar kasus penggunaan mata uang kripto on-chain yang baru, integrasi lebih luas dan penerimaan mata uang kripto sebagai bentuk pembayaran, bersama dengan kejelasan regulasi, diperlukan. Namun, saat komponen-komponen ini berkembang, agen-agen siap untuk menjadi salah satu konsumen terbesar dari solusi komputasi terdesentralisasi dan zkML, secara otonom menerima dan menyelesaikan setiap tugas dengan cara yang tidak deterministik.

Kesimpulan

AI memperkenalkan inovasi yang sama ke mata uang kripto yang telah kita lihat dalam web2, meningkatkan segalanya mulai dari pengembangan infrastruktur hingga pengalaman pengguna dan aksesibilitas. Namun, proyek-proyek masih berada dalam tahap awal pengembangan, dan integrasi mata uang kripto dan AI dalam jangka pendek akan didorong terutama oleh integrasi di luar rantai.

Produk seperti Copilot diatur untuk “meningkatkan efisiensi pengembang hingga 10x,” dan aplikasi Layer 1 dan DeFi telah meluncurkan platform pengembangan yang dibantu AI bekerja sama dengan perusahaan-perusahaan besar seperti Microsoft. Perusahaan seperti Cub3.ai dan Test Machine sedang mengembangkan integrasi AI untuk pemeriksaan kontrak pintar dan pemantauan ancaman real-time untuk meningkatkan keamanan on-chain. Chatbot LLM sedang dilatih dengan data on-chain, dokumentasi protokol, dan aplikasi untuk memberikan pengguna aksesibilitas dan pengalaman pengguna yang ditingkatkan.

Tantangan untuk integrasi yang lebih maju yang benar-benar memanfaatkan teknologi yang mendasari cryptocurrency tetap membuktikan bahwa menerapkan solusi AI on-chain layak secara teknis dan ekonomi. Pengembangan komputasi terdesentralisasi, zkML, dan agen AI menunjukkan vertikal yang menjanjikan yang meletakkan dasar bagi masa depan cryptocurrency dan AI yang saling berhubungan secara mendalam.

Disclaimer:

  1. Artikel ini diambil daritechflow, Semua hak cipta milik penulis asli [Lucas Tcheyan]. Jika ada keberatan terhadap cetak ulang ini, harap hubungi Gate Belajartim, dan mereka akan menanganinya dengan cepat.
  2. Penolakan Tanggung Jawab Kewajiban: Pandangan dan opini yang terdapat dalam artikel ini semata-mata milik penulis dan tidak merupakan saran investasi apa pun.
  3. Terjemahan artikel ke dalam bahasa lain dilakukan oleh tim Gate Learn. Kecuali disebutkan, menyalin, mendistribusikan, atau melakukan plagiarisme terhadap artikel yang diterjemahkan dilarang.

Galaxy Digital: Menjelajahi Persimpangan Cryptocurrency dan AI

Menengah2/28/2024, 4:55:33 AM
Artikel ini mengeksplorasi perpotongan antara mata uang kripto dan kecerdasan buatan, menyoroti munculnya blockchain publik sebagai salah satu kemajuan paling dalam dalam sejarah ilmu komputer. Ini membahas bagaimana perkembangan AI sudah memiliki dampak signifikan pada dunia kita.

Pengantar

Kemunculan blockchain publik menandai kemajuan yang mendalam dalam sejarah ilmu komputer, sementara perkembangan kecerdasan buatan memiliki dampak signifikan pada dunia kita. Teknologi blockchain menawarkan templat baru untuk penyelesaian transaksi, penyimpanan data, dan desain sistem, sedangkan kecerdasan buatan mewakili revolusi dalam komputasi, analisis, dan pengiriman konten. Inovasi di industri ini sedang melepaskan kasus penggunaan baru yang dapat mempercepat adopsi kedua sektor dalam beberapa tahun mendatang. Laporan ini meneliti integrasi terus-menerus dari kripto dan kecerdasan buatan, berfokus pada kasus penggunaan baru yang bertujuan untuk menjembatani kesenjangan antara keduanya dan memanfaatkan kekuatan mereka. Secara khusus, melihat proyek-proyek yang mengembangkan protokol komputasi terdesentralisasi, infrastruktur pembelajaran mesin pengetahuan nol (zkML), dan agen kecerdasan buatan.

Mata Uang Kripto menawarkan lapisan penyelesaian yang bersifat tanpa izin, tanpa kepercayaan, dan dapat disusun untuk kecerdasan buatan, membuka kemungkinan seperti akses yang lebih mudah ke perangkat keras melalui sistem komputasi terdesentralisasi, membangun agen kecerdasan buatan yang mampu menjalankan tugas kompleks yang membutuhkan pertukaran nilai, dan mengembangkan identitas dan solusi provenans untuk melawan serangan Sybil dan deepfakes. Kecerdasan buatan membawa banyak manfaat yang sama seperti yang terlihat di Web 2.0 ke mata uang kripto, termasuk pengalaman pengguna dan pengembang yang ditingkatkan melalui model bahasa besar seperti ChatGPT dan Copilot, dan potensi fungsionalitas dan otomatisasi yang signifikan untuk kontrak pintar. Blockchain menyediakan lingkungan yang transparan dan kaya data yang diperlukan untuk kecerdasan buatan, meskipun daya komputasi terbatas dari blockchain adalah hambatan utama untuk integrasi langsung dari model kecerdasan buatan.

Eksperimen dan adopsi akhirnya dalam percampuran mata uang kripto dan AI didorong oleh kekuatan yang sama yang mendorong kasus penggunaan paling menjanjikan untuk mata uang kripto: akses ke lapisan koordinasi tanpa izin dan tanpa kepercayaan, memfasilitasi transfer nilai yang lebih baik. Mengingat potensi besar, para pemangku kepentingan di bidang ini perlu memahami cara mendasar di mana teknologi ini berpotongan.

Titik-titik kunci:

    • Dalam waktu dekat (6 bulan hingga 1 tahun), integrasi mata uang kripto dan KI akan didominasi oleh aplikasi KI yang meningkatkan efisiensi pengembang, auditabilitas dan keamanan kontrak pintar, serta aksesibilitas pengguna. Integrasi-integrasi ini tidak spesifik untuk mata uang kripto tetapi meningkatkan pengalaman bagi pengembang dan pengguna on-chain.
    • Saat GPU berkinerja tinggi tetap langka, produk komputasi terdesentralisasi sedang menerapkan produk GPU yang disesuaikan dengan kecerdasan buatan untuk meningkatkan adopsi.
    • Pengalaman pengguna dan hambatan regulasi tetap menjadi kendala dalam menarik pelanggan komputasi terdesentralisasi. Namun, perkembangan terbaru dari OpenAI dan tinjauan regulasi yang sedang berlangsung di AS menyoroti proposal nilai jaringan AI terdesentralisasi, tanpa izin, tahan sensor, dan terdesentralisasi.
    • Integrasi AI on-chain, terutama kontrak cerdas yang mampu memanfaatkan model AI, memerlukan peningkatan dalam teknologi zkML dan metode lain untuk memverifikasi komputasi off-chain. Kurangnya alat yang komprehensif, bakat pengembang, dan biaya tinggi merupakan hambatan untuk adopsi.
    • Agen AI sangat cocok untuk mata uang kripto, di mana pengguna (atau agen itu sendiri) dapat membuat dompet untuk bertransaksi dengan layanan lain, agen, atau individu—sebuah kemampuan yang tidak mungkin dilakukan dengan rel keuangan tradisional. Integrasi tambahan dengan produk non-kripto diperlukan untuk adopsi yang lebih luas.

Ketentuan

Kecerdasan Buatan adalah penggunaan komputasi dan mesin untuk meniru kemampuan penalaran dan pemecahan masalah manusia.

Jaringan Saraf adalah metode pelatihan model kecerdasan buatan. Mereka menjalankan input melalui lapisan algoritmik diskrit, menyempurnakannya hingga output yang diinginkan dihasilkan. Jaringan saraf terdiri dari persamaan dengan bobot yang dapat disesuaikan untuk mengubah output. Mereka mungkin memerlukan data dan komputasi yang ekstensif untuk pelatihan untuk memastikan output yang akurat. Ini adalah salah satu cara paling umum untuk mengembangkan model AI (misalnya, ChatGPT bergantung pada proses jaringan saraf berbasis Transformers).

Pelatihan adalah proses pengembangan jaringan saraf dan model AI lainnya. Ini memerlukan jumlah data yang signifikan untuk melatih model agar dapat menginterpretasikan input dengan benar dan menghasilkan output yang akurat. Selama pelatihan, bobot persamaan model terus dimodifikasi hingga output yang memuaskan dihasilkan. Pelatihan dapat sangat mahal. Misalnya, ChatGPT menggunakan puluhan ribu GPU miliknya sendiri untuk memproses data. Tim dengan sumber daya yang lebih sedikit sering bergantung pada penyedia komputasi khusus, seperti Amazon Web Services, Azure, dan penyedia Google Cloud.

Inferensi adalah penggunaan aktual dari model AI untuk mendapatkan output atau hasil (misalnya, menggunakan ChatGPT untuk membuat garis besar untuk sebuah makalah tentang persilangan mata uang kripto dan AI). Inferensi digunakan sepanjang proses pelatihan dan dalam produk akhir. Karena biaya komputasi, bahkan setelah pelatihan selesai, biaya operasional mereka bisa tinggi, meskipun intensitas komputasinya lebih rendah daripada pelatihan.

Zero-Knowledge Proofs (ZKP) memungkinkan verifikasi pernyataan tanpa mengungkapkan informasi yang mendasarinya. Ini berguna dalam cryptocurrency karena dua alasan utama: 1) Privasi dan 2) Penskalaan. Untuk privasi, ini memungkinkan pengguna untuk bertransaksi tanpa mengungkapkan informasi sensitif (misalnya, berapa banyak ETH dalam dompet). Untuk penskalaan, ini memungkinkan komputasi off-chain dibuktikan secara on-chain lebih cepat daripada mengeksekusi ulang komputasi. Hal ini memungkinkan blockchain dan aplikasi untuk menjalankan perhitungan murah off-chain dan kemudian memverifikasi mereka on-chain. Untuk informasi lebih lanjut tentang pengetahuan nol dan perannya dalam Mesin Virtual Ethereum, lihat laporan Christine Kim tentang zkEVM: Masa Depan Skalabilitas Ethereum.

Peta Pasar AI/Mata Uang Kripto

Proyek-proyek yang mengintegrasikan kecerdasan buatan dan mata uang kripto masih membangun infrastruktur dasar yang diperlukan untuk mendukung interaksi kecerdasan buatan on-chain dalam skala besar.

Pasar komputasi terdesentralisasi sedang muncul untuk menyediakan perangkat keras fisik yang sangat dibutuhkan untuk melatih dan menafsirkan model AI, terutama dalam bentuk Unit Pemrosesan Grafis (GPUs). Pasar dua sisi ini menghubungkan orang yang menyewakan dan mencari untuk menyewa komputasi, memfasilitasi transfer nilai dan verifikasi perhitungan. Dalam komputasi terdesentralisasi, beberapa subkategori yang menawarkan fungsionalitas tambahan sedang muncul. Selain pasar bilateral, laporan ini juga meninjau penyedia pelatihan pembelajaran mesin yang menawarkan pelatihan yang dapat diverifikasi dan penyempurnaan output, serta proyek-proyek yang didedikasikan untuk menghubungkan komputasi dan generasi model untuk memungkinkan AI, sering disebut sebagai jaringan insentif cerdas.

zkML merupakan area fokus yang sedang berkembang untuk proyek-proyek yang bertujuan untuk memberikan output model yang dapat diverifikasi on-chain secara ekonomis dan tepat waktu. Proyek-proyek ini pada umumnya memungkinkan aplikasi untuk menangani permintaan komputasi berat off-chain, kemudian memposting output yang dapat diverifikasi on-chain, membuktikan bahwa beban kerja off-chain telah selesai dan akurat. zkML saat ini mahal dan memakan waktu, namun semakin banyak digunakan sebagai solusi. Hal ini terbukti dari jumlah integrasi yang semakin meningkat antara penyedia zkML dan aplikasi DeFi/gaming yang ingin memanfaatkan model AI.

Pasokan komputasi yang cukup dan kemampuan untuk memverifikasi komputasi on-chain membuka pintu bagi agen AI on-chain. Agen adalah model-model terlatih yang mampu mengeksekusi permintaan atas nama pengguna. Agen menawarkan kesempatan untuk secara signifikan meningkatkan pengalaman on-chain, memungkinkan pengguna untuk mengeksekusi transaksi kompleks dengan mudah hanya dengan berbicara dengan chatbot. Namun, saat ini, proyek agen masih difokuskan pada pengembangan infrastruktur dan alat untuk penyebaran yang mudah dan cepat.

Komputasi Terdesentralisasi

Ikhtisar

Kecerdasan Buatan membutuhkan komputasi yang luas untuk melatih model dan menjalankan inferensi. Selama dekade terakhir, ketika model-model menjadi semakin kompleks, permintaan akan komputasi telah tumbuh secara eksponensial. Sebagai contoh, OpenAI mengamati bahwa dari tahun 2012 hingga 2018, permintaan komputasi untuk model-modelnya meningkat dua kali lipat setiap dua tahun, beralih menjadi dua kali lipat setiap tiga setengah bulan. Hal ini menyebabkan lonjakan permintaan GPU, dengan beberapa penambang mata uang kripto bahkan mengubah penggunaan GPU mereka untuk menyediakan layanan komputasi awan. Saat persaingan untuk akses komputasi semakin intensif dan biaya meningkat, beberapa proyek memanfaatkan teknologi kriptografi untuk menawarkan solusi komputasi terdesentralisasi. Mereka menyediakan komputasi on-demand dengan harga yang kompetitif, memungkinkan tim untuk melatih dan menjalankan model-model dengan biaya yang terjangkau. Dalam beberapa kasus, kompromi mungkin melibatkan kinerja dan keamanan.

Permintaan untuk GPU terbaru (misalnya, yang diproduksi oleh Nvidia) sangat signifikan. Pada bulan September, Tether memperoleh saham dalam penambang bitcoin Jerman Northern Data, dilaporkan menghabiskan $420 juta untuk membeli 10.000 GPU H100 (salah satu GPU paling canggih untuk pelatihan kecerdasan buatan). Waktu tunggu untuk mendapatkan perangkat keras kelas atas bisa setidaknya enam bulan, jika tidak lebih lama dalam banyak kasus. Lebih buruk lagi, perusahaan sering diminta untuk menandatangani kontrak jangka panjang untuk mengamankan volume komputasi yang mungkin bahkan tidak mereka gunakan. Hal ini dapat menyebabkan situasi di mana sumber daya komputasi tersedia namun tidak dapat diakses di pasar. Sistem komputasi terdesentralisasi membantu mengatasi ketidaksempurnaan pasar ini dengan menciptakan pasar sekunder di mana pemilik komputasi dapat langsung menyewakan kapasitas berlebih mereka setelah pemberitahuan, sehingga melepaskan pasokan baru.

Selain harga yang kompetitif dan aksesibilitas, proposisi nilai kunci dari komputasi terdesentralisasi adalah resistensi sensor. Pengembangan AI mutakhir semakin didominasi oleh perusahaan teknologi besar dengan kemampuan akses komputasi dan data yang tak tertandingi. Tema kunci pertama yang disorot dalam Laporan Tahunan AI Index 2023 adalah pertumbuhan yang melampaui dunia akademis oleh industri dalam pengembangan model AI, yang mengkonsentrasikan kontrol di tangan beberapa pemimpin teknologi. Hal ini menimbulkan kekhawatiran tentang potensi mereka untuk menguasai pengaruh yang signifikan dalam menetapkan norma dan nilai yang mendasari model AI, terutama setelah perusahaan teknologi ini mendorong regulasi untuk membatasi pengembangan AI yang tak terkendali.

Vertikal dalam Komputasi Terdesentralisasi

Beberapa model komputasi terdesentralisasi muncul dalam beberapa tahun terakhir, masing-masing dengan fokus dan komprominya sendiri.

Komputasi Umum

Secara garis besar, proyek-proyek seperti Akash, io.net, iExec, dan Cudos adalah aplikasi dari komputasi terdesentralisasi, yang menawarkan solusi di luar data dan komputasi umum, akses ke komputasi khusus untuk pelatihan dan inferensi kecerdasan buatan. Akash menonjol sebagai satu-satunya platform “super cloud” yang sepenuhnya open-source, menggunakan Cosmos SDK untuk jaringan proof-of-stake-nya. AKT, token asli Akash, berfungsi sebagai metode pembayaran untuk mengamankan jaringan dan mendorong partisipasi. Diluncurkan pada tahun 2020, mainnet Akash awalnya berfokus pada pasar komputasi awan tanpa izin, menampilkan layanan penyimpanan dan sewa CPU. Pada Juni 2023, Akash memperkenalkan testnet berbasis GPU, diikuti oleh peluncuran mainnet GPU pada bulan September, memungkinkan penyewaan GPU untuk pelatihan dan inferensi kecerdasan buatan.

Ekosistem Akash terdiri dari dua peserta utama: penyewa, yang mencari sumber daya komputasi, dan penyedia, pemasok komputasi. Proses lelang terbalik memfasilitasi pencocokan penyewa dan penyedia, di mana penyewa memposting persyaratan komputasi mereka, termasuk lokasi server pilihan atau jenis perangkat keras dan anggaran mereka. Penyedia kemudian menawar, dengan penawar terendah diberikan tugas. Validator mempertahankan integritas jaringan, dengan batas saat ini pada 100 validator, direncanakan akan meningkat seiring waktu. Partisipasi sebagai validator terbuka bagi mereka yang mempertaruhkan lebih banyak AKT daripada validator saat ini yang paling sedikit dipertaruhkan. Pemegang AKT dapat mendelegasikan token mereka ke validator, dengan biaya transaksi dan hadiah blok yang didistribusikan di AKT. Selain itu, untuk setiap sewa, jaringan Akash mendapatkan "take rate," yang diputuskan oleh komunitas, didistribusikan kepada pemegang AKT.

Pasar Sekunder

Pasar sekunder untuk komputasi terdesentralisasi bertujuan untuk mengatasi ketidaksempurnaan dalam pasar komputasi yang ada, di mana kendala pasokan menyebabkan perusahaan menyimpan sumber daya melebihi kebutuhan mereka dan kontrak jangka panjang dengan penyedia cloud lebih lanjut membatasi pasokan. Platform komputasi terdesentralisasi membuka pasokan baru, memungkinkan siapa pun dengan kebutuhan komputasi menjadi penyedia.

Apakah lonjakan permintaan untuk GPU untuk pelatihan AI berubah menjadi penggunaan jaringan yang berkelanjutan di Akash masih harus dilihat. Secara historis, Akash telah menawarkan layanan pasar berbasis CPU dengan diskon 70-80% dibandingkan dengan alternatif terpusat, namun strategi penetapan harga ini belum secara signifikan mendorong adopsi. Aktivitas jaringan, diukur dengan sewa aktif, telah mencapai puncak, dengan rata-rata 33% komputasi, 16% memori, dan 13% utilitas penyimpanan pada kuartal kedua tahun 2023, impresif untuk adopsi on-chain namun mengindikasikan pasokan masih melebihi permintaan. Setengah tahun sejak peluncuran jaringan GPU, masih terlalu dini untuk penilaian definitif adopsi jangka panjang, meskipun tanda-tanda awal menunjukkan rata-rata 44% utilitas GPU, didorong terutama oleh permintaan untuk GPU berkualitas tinggi seperti A100, lebih dari 90% di antaranya telah disewakan.

Pengeluaran harian Akash hampir dua kali lipat sejak diperkenalkannya GPU, yang sebagian disebabkan oleh peningkatan penggunaan layanan lain, terutama CPU, tetapi terutama karena penggunaan GPU baru.

Harga bersaing dengan, atau dalam beberapa kasus lebih mahal dari, rekan terpusat seperti Lambda Cloud dan Vast.ai. Permintaan tinggi untuk GPU kelas atas, seperti H100 dan A100, berarti sebagian besar pemilik perangkat tersebut tidak tertarik untuk mencatatnya di pasar dengan harga yang kompetitif.

Meskipun keuntungan awal, hambatan adopsi tetap ada. Jaringan komputasi terdesentralisasi harus mengambil langkah lebih lanjut untuk menghasilkan permintaan dan pasokan, dengan tim-tim yang sedang menjelajahi cara terbaik untuk menarik pengguna baru. Misalnya, pada awal 2024, Akash melewati Proposal 240, meningkatkan emisi AKT untuk penyedia GPU untuk mendorong lebih banyak pasokan, terutama untuk GPU high-end. Tim-tim juga sedang mengerjakan model proof-of-concept untuk mendemonstrasikan kemampuan langsung jaringan mereka kepada pengguna potensial. Akash sedang melatih model-model dasarnya dan telah meluncurkan produk chatbot dan generasi gambar yang memanfaatkan GPU Akash. Demikian pula, io.net telah mengembangkan model difusi stabil dan meluncurkan fungsionalitas jaringan baru untuk lebih meniru kinerja jaringan dan skala.

Pelatihan Pembelajaran Mesin Terdesentralisasi

Selain platform komputasi umum yang dapat memenuhi tuntutan kecerdasan buatan, sekelompok pemasok GPU AI profesional yang fokus pada pelatihan model pembelajaran mesin juga mulai muncul. Misalnya, Gensyn sedang 'mengkoordinasikan daya dan perangkat keras untuk membangun kecerdasan kolektif,' dengan filosofi bahwa 'jika seseorang ingin melatih sesuatu dan seseorang bersedia melatihnya, maka pelatihan ini harus diizinkan terjadi.'

Protokol ini melibatkan empat peserta utama: pengirim, solver, validator, dan whistleblower. Pengirim mengirimkan tugas dengan permintaan pelatihan ke jaringan. Tugas-tugas ini termasuk tujuan pelatihan, model yang akan dilatih, dan data pelatihan. Sebagai bagian dari proses pengiriman, pengirim perlu membayar biaya komputasi yang diperkirakan diperlukan oleh solver.

Setelah pengajuan, tugas diberikan kepada penyelesaian yang sebenarnya melakukan pelatihan model. Kemudian, penyelesaian mengajukan tugas yang sudah selesai kepada validator, yang bertanggung jawab untuk memeriksa pelatihan untuk memastikan bahwa itu diselesaikan dengan benar. Pelapor ditugaskan untuk memastikan validator bertindak jujur. Untuk memotivasi pelapor untuk berpartisipasi dalam jaringan, Gensyn berencana untuk secara teratur menawarkan bukti yang sengaja tidak benar, memberikan hadiah kepada pelapor yang menangkapnya.

Selain menyediakan komputasi untuk beban kerja terkait kecerdasan buatan, sebuah tawaran nilai kunci dari Gensyn adalah sistem verifikasinya, yang masih dalam pengembangan. Verifikasi diperlukan untuk memastikan bahwa komputasi eksternal oleh penyedia GPU dieksekusi dengan benar (yaitu, memastikan model pengguna dilatih sesuai keinginan mereka). Gensyn mengatasi masalah ini dengan pendekatan yang unik, menggunakan metode verifikasi baru yang disebut “bukti pembelajaran probabilistik, protokol tepat berbasis graf, dan permainan insentif gaya Truebit.” Ini adalah model pemecahan yang optimis yang memungkinkan validator mengonfirmasi bahwa solver telah menjalankan model dengan benar tanpa perlu sepenuhnya menjalankan ulang model mereka sendiri, sebuah proses yang mahal dan tidak efisien.

Selain metode verifikasi inovatifnya, Gensyn juga mengklaim lebih hemat biaya dibandingkan dengan alternatif terpusat dan pesaing mata uang kripto - menawarkan harga pelatihan ML hingga 80% lebih murah dari AWS, sambil melampaui proyek serupa seperti Truebit dalam uji coba.

Apakah hasil awal ini dapat direplikasi dalam skala besar di jaringan terdesentralisasi masih harus dilihat. Gensyn berharap dapat memanfaatkan kapasitas komputasi surplus dari penyedia seperti pusat data kecil, pengguna ritel, dan akhirnya perangkat mobile kecil seperti smartphone. Namun, seperti yang diakui tim Gensyn sendiri, bergantung pada penyedia komputasi heterogen memperkenalkan beberapa tantangan baru.

Untuk penyedia terpusat seperti Google Cloud dan Coreweave, biaya komputasi mahal, tetapi komunikasi antar komputasi (bandwidth dan laten) murah. Sistem ini dirancang untuk memfasilitasi komunikasi antar perangkat keras secepat mungkin. Gensyn mengganggu kerangka kerja ini dengan mengurangi biaya komputasi dengan memungkinkan siapa pun di dunia menawarkan GPU, tetapi pada saat yang sama meningkatkan biaya komunikasi, karena jaringan sekarang harus mengkoordinasikan pekerjaan komputasi di seluruh perangkat keras heterogen yang jauh. Gensyn belum diluncurkan, tetapi merupakan bukti konsep yang dapat dicapai saat membangun protokol pelatihan pembelajaran mesin terdesentralisasi.

Intelligence Umum Terdesentralisasi

Platform komputasi terdesentralisasi juga menawarkan kemungkinan untuk merancang metode penciptaan kecerdasan buatan. Bittensor adalah protokol komputasi terdesentralisasi yang dibangun di Substrate, berusaha menjawab pertanyaan, “Bagaimana kita mengubah kecerdasan buatan menjadi metode kolaboratif?” Bittensor bertujuan untuk mencapai desentralisasi dan komodifikasi generasi AI. Diluncurkan pada tahun 2021, ia berharap dapat memanfaatkan kekuatan model pembelajaran mesin kolaboratif untuk terus mengulang dan menghasilkan AI yang lebih baik.

Bittensor mengambil inspirasi dari Bitcoin, dengan mata uang aslinya, TAO, memiliki batas pasokan sebesar 21 juta dan siklus pengurangan setiap empat tahun (pengurangan pertama dijadwalkan pada tahun 2025). Berbeda dengan menggunakan Proof of Work untuk menghasilkan angka acak yang benar dan mendapatkan imbalan blok, Bittensor mengandalkan “Proof of Intelligence,” yang mengharuskan para penambang menjalankan model untuk menghasilkan output sebagai respons terhadap permintaan inferensi.

Mendorong Kecerdasan

Awalnya, Bittensor mengandalkan model Mixture of Experts (MoE) untuk menghasilkan output. Ketika permintaan inferensi diajukan, model MoE tidak bergantung pada model umum tetapi meneruskan permintaan ke model yang paling akurat untuk jenis input yang diberikan. Bayangkan membangun sebuah rumah, di mana Anda menyewa berbagai ahli untuk berbagai aspek proses konstruksi (misalnya, arsitek, insinyur, pelukis, pekerja konstruksi, dll.). MoE menerapkan ini pada model pembelajaran mesin, mencoba memanfaatkan output dari model yang berbeda berdasarkan input. Seperti yang dijelaskan oleh pendiri Bittensor, Ala Shaabana, ini seperti "berbicara dengan ruangan yang penuh dengan orang pintar untuk mendapatkan jawaban terbaik, daripada berbicara dengan satu orang." Karena tantangan dalam memastikan perutean yang benar, sinkronisasi pesan ke model yang benar, dan insentif, metode ini telah ditangguhkan hingga pengembangan proyek lebih lanjut.

Dalam jaringan Bittensor, ada dua partisipan utama: validator dan penambang. Validator mengirimkan permintaan inferensi ke penambang, meninjau output mereka, dan memberi peringkat berdasarkan kualitas respons mereka. Untuk memastikan peringkat mereka dapat diandalkan, validator diberi skor “vtrust” berdasarkan seberapa konsisten peringkat mereka dengan validator lainnya. Semakin tinggi skor vtrust seorang validator, semakin banyak emisi TAO yang mereka terima. Hal ini untuk mendorong validator mencapai konsensus tentang peringkat model dari waktu ke waktu, karena semakin banyak validator setuju tentang peringkat, semakin tinggi skor vtrust individu mereka.

Penambang, juga dikenal sebagai server, adalah peserta jaringan yang menjalankan model pembelajaran mesin yang sebenarnya. Mereka bersaing untuk memberikan output yang paling akurat untuk kueri validator, dan semakin akurat outputnya, semakin banyak emisi TAO yang mereka peroleh. Penambang bebas menghasilkan output ini sesuai keinginan. Misalnya, di masa depan, sangat mungkin bagi penambang Bittensor untuk sebelumnya melatih model di Gensyn dan menggunakannya untuk mendapatkan emisi TAO.

Hari ini, sebagian besar interaksi terjadi langsung antara validator dan penambang. Validator mengirimkan input ke penambang dan meminta output (yaitu, pelatihan model). Begitu validator mengajukan pertanyaan kepada penambang di jaringan dan menerima respons mereka, mereka menilai para penambang dan mengirimkan peringkat mereka ke jaringan.

Interaksi antara validator (mengandalkan PoS) dan penambang (mengandalkan Model Proof, sebuah bentuk PoW) dikenal sebagai konsensus Yuma. Ini bertujuan untuk memberikan insentif kepada penambang untuk menghasilkan output terbaik untuk mendapatkan emisi TAO dan memberikan insentif kepada validator untuk secara akurat menilai output penambang, mendapatkan skor vtrust yang lebih tinggi, dan meningkatkan imbalan TAO mereka, sehingga membentuk mekanisme konsensus untuk jaringan.

Subnet dan Aplikasi

Interaksi di Bittensor pada umumnya melibatkan validator mengirimkan permintaan kepada penambang dan mengevaluasi hasil keluaran mereka. Namun, seiring dengan peningkatan kualitas penambang kontribusi dan pertumbuhan kecerdasan jaringan secara keseluruhan, Bittensor sedang membuat lapisan aplikasi di atas tumpukan yang ada sehingga pengembang dapat membangun aplikasi yang mengakses jaringan Bittensor.

Pada Oktober 2023, Bittensor memperkenalkan subnets melalui upgrade Revolusi, mengambil langkah signifikan menuju pencapaian tujuan ini. Subnets adalah jaringan terpisah di Bittensor yang mendorong perilaku tertentu. Revolusi membuka jaringan bagi siapa pun yang tertarik untuk membuat subnets. Dalam beberapa bulan setelah diluncurkan, lebih dari 32 subnets telah diluncurkan, termasuk subnets untuk teks prompts, data scraping, generasi gambar, dan penyimpanan. Ketika subnets matang dan siap digunakan, pencipta subnet juga akan membuat integrasi aplikasi, memungkinkan tim untuk membangun aplikasi yang mengakses subnets tertentu. Beberapa aplikasi, seperti chatbots, pembuat gambar, bot balasan Twitter, dan pasar prediksi, memang ada tetapi tidak ada insentif formal selain pendanaan dari Yayasan Bittensor bagi validator untuk menerima dan meneruskan pertanyaan-pertanyaan ini.

Untuk penjelasan yang lebih jelas, di bawah ini adalah contoh bagaimana Bittensor mungkin berfungsi setelah aplikasi terintegrasi ke dalam jaringan.

Subnet menghasilkan TAO berdasarkan kinerja yang dievaluasi oleh jaringan root. Jaringan root, yang terletak di atas semua subnet, pada dasarnya bertindak sebagai subnet khusus dan dikelola oleh 64 validator subnet terbesar berdasarkan saham. Validator jaringan root meranking subnet berdasarkan kinerjanya dan secara berkala mengalokasikan emisi TAO ke subnet. Dengan cara ini, subnet individu bertindak sebagai penambang untuk jaringan root.

Visi Bittensor

Bittensor masih mengalami masa pertumbuhan saat memperluas fungsionalitas protokol untuk mendorong generasi kecerdasan di berbagai subnet. Para penambang terus merancang cara baru untuk menyerang jaringan demi lebih banyak imbalan TAO, misalnya dengan sedikit mengubah output inferensi yang sangat baik yang dijalankan oleh model mereka dan kemudian mengirimkan beberapa varian. Usulan tata kelola yang memengaruhi seluruh jaringan hanya dapat diajukan dan diimplementasikan oleh Triumvirate, yang terdiri sepenuhnya dari para pemegang saham dari Yayasan Opentensor (secara khusus, usulan memerlukan persetujuan dari Senat Bittensor, yang terdiri dari validator Bittensor, sebelum diimplementasikan). Tokenomika proyek sedang dimodifikasi untuk meningkatkan insentif untuk penggunaan TAO lintas-subnet. Proyek ini juga dengan cepat mendapatkan ketenaran karena pendekatannya yang unik, dengan CEO salah satu situs AI paling populer, HuggingFace, menyatakan bahwa Bittensor seharusnya menambahkan sumber dayanya ke situs.

Dalam artikel terbaru berjudul “Paradigma Bittensor” yang dipublikasikan oleh pengembang inti, tim menjabarkan visi Bittensor untuk akhirnya menjadi “agnostik terhadap apa yang diukur.” Secara teoritis, ini bisa memungkinkan Bittensor untuk mengembangkan subnet yang mendorong berbagai jenis perilaku yang didukung oleh TAO. Masih ada batasan praktis yang cukup signifikan—terutama, membuktikan bahwa jaringan-jaringan ini dapat berkembang untuk menangani berbagai proses dan insentif potensial mendorong kemajuan di luar produk-produk terpusat.

Membangun Tumpukan Komputasi Terdesentralisasi untuk Model Kecerdasan Buatan

Bagian di atas memberikan gambaran mendalam tentang berbagai jenis protokol komputasi kecerdasan buatan (AI) terdesentralisasi yang saat ini sedang dikembangkan. Dalam tahap awal pengembangan dan adopsi, mereka membentuk dasar bagi sebuah ekosistem yang pada akhirnya bisa memfasilitasi penciptaan "blok bangunan AI," mirip dengan konsep "money Legos" dalam DeFi. Komposabilitas blockchain tanpa izin memungkinkan setiap protokol untuk dibangun di atas yang lain, menciptakan ekosistem AI terdesentralisasi yang lebih komprehensif.
Sebagai contoh, inilah bagaimana Akash, Gensyn, dan Bittensor mungkin berinteraksi untuk merespons permintaan inferensi.

Penting untuk memahami bahwa ini hanyalah contoh dari apa yang bisa terjadi di masa depan, bukan representasi dari ekosistem saat ini, kemitraan yang ada, atau hasil yang potensial. Keterbatasan interoperabilitas dan pertimbangan lain yang dijelaskan di bawah ini secara signifikan membatasi kemungkinan integrasi saat ini. Selain itu, fragmentasi likuiditas dan kebutuhan untuk menggunakan beberapa token bisa merugikan pengalaman pengguna, seperti yang dicatat oleh para pendiri Akash dan Bittensor.

Produk Terdesentralisasi Lainnya

Selain komputasi, beberapa layanan infrastruktur terdesentralisasi lainnya telah diperkenalkan untuk mendukung ekosistem AI yang muncul dalam ruang kripto. Mendaftar semua ini di luar cakupan laporan ini, tetapi beberapa contoh menarik dan menggambarkan termasuk:

  • Ocean: sebuah pasar data terdesentralisasi di mana pengguna dapat membuat data NFT yang mewakili data mereka dan membeli dengan menggunakan token data. Pengguna dapat memonetisasi data mereka dan memiliki kedaulatan yang lebih besar atasnya, sambil memberikan tim AI akses ke data yang diperlukan untuk pengembangan dan pelatihan model.
  • Grass: Sebuah pasar bandwidth terdesentralisasi di mana pengguna dapat menjual bandwidth berlebih mereka kepada perusahaan AI, yang menggunakannya untuk mengambil data dari internet. Dibangun di jaringan Wynd, ini memungkinkan individu untuk memonetisasi bandwidth mereka dan memberikan pembeli bandwidth perspektif yang lebih beragam tentang apa yang dilihat pengguna individu secara online (karena akses internet individu sering disesuaikan berdasarkan alamat IP mereka).
  • HiveMapper: Membangun produk peta terdesentralisasi yang menggabungkan informasi yang dikumpulkan dari pengemudi sehari-hari. HiveMapper bergantung pada kecerdasan buatan untuk menginterpretasikan gambar yang dikumpulkan dari kamera dasbor pengguna dan memberi pengguna imbalan token untuk membantu menyempurnakan model AI melalui Umpan Balik Pembelajaran Manusia yang Diperkuat (RHLF).

Secara keseluruhan, contoh-contoh ini menunjukkan peluang yang hampir tak terbatas untuk mengeksplorasi model pasar terdesentralisasi yang mendukung model AI atau infrastruktur periferal yang diperlukan untuk mengembangkannya. Saat ini, sebagian besar proyek ini berada dalam tahap proof-of-concept dan memerlukan penelitian dan pengembangan lebih lanjut untuk membuktikan bahwa mereka dapat beroperasi pada skala yang diperlukan untuk menyediakan layanan AI yang komprehensif.

Outlook

Produk komputasi terdesentralisasi masih dalam tahap awal pengembangan. Mereka baru saja mulai meluncurkan kemampuan komputasi mutakhir, mampu melatih model kecerdasan buatan paling kuat dalam produksi. Untuk mendapatkan pangsa pasar yang signifikan, mereka perlu menunjukkan keunggulan nyata dibandingkan dengan alternatif terpusat. Pemicu potensial untuk adopsi lebih luas termasuk:

  • Penawaran/Demand GPU. Kelangkaan GPU yang dikombinasikan dengan permintaan komputasi yang meningkat dengan cepat sedang mengarah pada perlombaan senjata GPU. Karena keterbatasan GPU, OpenAI kadang-kadang membatasi akses ke platformnya. Platform seperti Akash dan Gensyn dapat menawarkan alternatif yang kompetitif biaya bagi tim yang membutuhkan komputasi berperforma tinggi. 6-12 bulan ke depan menawarkan kesempatan yang sangat unik bagi penyedia komputasi terdesentralisasi untuk menarik pengguna baru yang terpaksa mempertimbangkan produk terdesentralisasi karena kurangnya akses pasar yang lebih luas. Selain itu, dengan kinerja model open-source yang semakin baik seperti LLaMA2 milik Meta, pengguna tidak lagi menghadapi hambatan yang sama saat menggunakan model yang disesuaikan dengan baik, membuat sumber daya komputasi menjadi bottleneck utama. Namun, keberadaan platform saja tidak menjamin pasokan komputasi yang memadai dan permintaan konsumen yang sesuai. Mendapatkan GPU high-end tetap menantang, dan biaya tidak selalu menjadi motivator utama permintaan. Platform-platform ini akan menghadapi tantangan dalam menunjukkan manfaat sebenarnya dari menggunakan opsi komputasi terdesentralisasi (baik karena biaya, ketahanan sensor, uptime dan ketahanan, atau aksesibilitas) untuk menarik pengguna yang loyal. Mereka harus bertindak cepat karena investasi dan konstruksi infrastruktur GPU sedang berlangsung dengan kecepatan yang mengagumkan.
  • Peraturan. Regulasi tetap menjadi penghalang bagi gerakan komputasi terdesentralisasi. Dalam jangka pendek, kurangnya regulasi yang jelas berarti penyedia dan pengguna menghadapi potensi risiko dalam menggunakan layanan ini. Bagaimana jika penyedia menawarkan perhitungan atau pembeli tanpa sadar membeli perhitungan dari entitas yang terkena sanksi? Pengguna mungkin ragu untuk menggunakan platform terdesentralisasi yang tidak memiliki kontrol dan pengawasan terpusat. Protokol berusaha untuk mengurangi kekhawatiran ini dengan memasukkan kontrol ke dalam platform mereka atau menambahkan filter untuk mengakses hanya penyedia komputasi yang dikenal (yaitu, mereka yang telah memberikan informasi Know Your Customer (KYC)), tetapi pendekatan yang lebih kuat diperlukan untuk melindungi privasi sambil memastikan kepatuhan. Dalam jangka pendek, kita mungkin melihat munculnya KYC dan platform kepatuhan yang membatasi akses ke protokol mereka untuk mengatasi masalah ini. Selain itu, diskusi seputar kemungkinan kerangka peraturan baru di AS (dicontohkan oleh penerbitan Perintah Eksekutif tentang Mempromosikan Pengembangan dan Penggunaan Kecerdasan Buatan yang Aman, Andal, dan Dapat Dipercaya) menyoroti potensi tindakan pengaturan untuk lebih membatasi akses GPU.
  • Sensor. Regulasi adalah pedang bermata dua, dan produk komputasi terdesentralisasi bisa mendapat manfaat dari tindakan yang membatasi akses ke kecerdasan buatan. Selain perintah eksekutif, pendiri OpenAI Sam Altman bersaksi di Kongres bahwa regulator seharusnya mengeluarkan lisensi untuk pengembangan kecerdasan buatan. Pembicaraan mengenai regulasi kecerdasan buatan baru saja dimulai, tetapi upaya apapun untuk membatasi akses atau menyensor kemampuan kecerdasan buatan bisa mempercepat adopsi platform-platform terdesentralisasi yang tidak menghadapi hambatan-hambatan tersebut. Perubahan kepemimpinan (atau ketidakterdapatannya) di OpenAI pada bulan November juga menunjukkan bahwa menyerahkan keputusan terhadap kekuatan model kecerdasan buatan yang paling kuat kepada beberapa orang adalah berisiko. Selain itu, semua model kecerdasan buatan pada akhirnya mencerminkan bias dari mereka yang membuatnya, sengaja atau tidak. Salah satu cara untuk menghilangkan bias-bias ini adalah dengan membuat model-model sebuka mungkin untuk disesuaikan dan dilatih, memastikan siapapun, di manapun, dapat mengakses berbagai model dengan berbagai bias.
  • Privasi Data. Komputasi terdesentralisasi bisa lebih menarik daripada alternatif terpusat ketika terintegrasi dengan solusi data eksternal dan privasi yang menawarkan kedaulatan data pengguna. Samsung menjadi korban ketika menyadari insinyur menggunakan ChatGPT untuk desain chip dan bocor informasi sensitif ke ChatGPT. Jaringan Phala dan iExec mengklaim memberikan pengguna dengan enclave SGX yang aman untuk melindungi data pengguna, dan penelitian enkripsi homomorfik penuh yang sedang berlangsung bisa lebih lanjut membuka kunci komputasi terdesentralisasi yang menjaga privasi. Ketika Kecerdasan Buatan semakin terintegrasi ke dalam kehidupan kita, pengguna akan semakin menghargai kemampuan untuk menjalankan model pada aplikasi dengan perlindungan privasi. Pengguna juga memerlukan dukungan untuk layanan komposabilitas data, sehingga mereka dapat dengan lancar memindahkan data dari satu model ke model lainnya.
  • Pengalaman Pengguna (UX). Pengalaman pengguna tetap menjadi hambatan signifikan untuk adopsi lebih luas dari semua jenis aplikasi kripto dan infrastruktur. Hal ini tidak berbeda untuk produk komputasi terdesentralisasi dan diperparah dalam beberapa kasus karena para pengembang perlu memahami baik mata uang kripto maupun kecerdasan buatan. Perbaikan perlu dimulai dari hal-hal dasar, seperti bergabung dan mengekstraksi interaksi dengan blockchain, untuk menghasilkan output berkualitas tinggi yang sama dengan pemimpin pasar saat ini. Hal ini terbukti mengingat kesulitan banyak protokol komputasi terdesentralisasi yang dapat dioperasikan dan menawarkan produk lebih murah dalam mendapatkan penggunaan reguler.

Kontrak pintar dan zkML

Kontrak pintar adalah landasan dari setiap ekosistem blockchain. Mereka secara otomatis dieksekusi di bawah serangkaian kondisi tertentu, mengurangi atau menghilangkan kebutuhan akan pihak ketiga yang dipercayai, sehingga memungkinkan penciptaan aplikasi terdesentralisasi yang kompleks, seperti yang ada di DeFi. Namun, fungsionalitas kontrak pintar masih terbatas karena mereka beroperasi berdasarkan parameter yang telah ditetapkan yang harus diperbarui.

Sebagai contoh, kontrak pintar diterapkan untuk protokol peminjaman/peminjaman, yang berisi spesifikasi kapan posisi harus dilikuidasi berdasarkan rasio pinjaman ke nilai tertentu. Meskipun berguna di lingkungan statis, kontrak pintar ini memerlukan pembaruan konstan untuk beradaptasi dengan perubahan dalam toleransi risiko dalam situasi dinamis, menimbulkan tantangan bagi kontrak yang tidak dikelola melalui proses terpusat. Sebagai contoh, DAO yang mengandalkan proses pengaturan terdesentralisasi mungkin tidak bereaksi dengan cukup cepat terhadap risiko sistemik.

Mengintegrasikan kecerdasan buatan (yaitu, model pembelajaran mesin) ke dalam kontrak pintar adalah cara potensial untuk meningkatkan fungsionalitas, keamanan, dan efisiensi sambil meningkatkan pengalaman pengguna secara keseluruhan. Namun, integrasi ini juga memperkenalkan risiko tambahan, karena tidak mungkin untuk memastikan model-model yang mendasari kontrak pintar ini tidak akan dieksploitasi atau gagal menginterpretasikan situasi long-tail (diberikan kelangkaan masukan data, situasi long-tail sulit bagi model untuk dilatih).

Machine Learning Zero Pengetahuan (zkML)

Machine learning memerlukan perhitungan yang signifikan untuk menjalankan model-model kompleks, sehingga menjadi tidak praktis untuk langsung menjalankan model AI dalam kontrak pintar karena biaya tinggi. Sebagai contoh, protokol DeFi yang menawarkan model optimisasi hasil akan kesulitan untuk menjalankan model-model ini on-chain tanpa menimbulkan biaya Gas yang melarang. Salah satu solusinya adalah meningkatkan kemampuan komputasi dari blockchain yang mendasarinya. Namun, hal ini juga meningkatkan persyaratan untuk validator-chain, yang berpotensi mengorbankan desentralisasi. Sebaliknya, beberapa proyek sedang menjelajahi penggunaan zkML untuk memverifikasi output secara tidak dapat dipercaya tanpa memerlukan komputasi on-chain yang intensif.

Sebuah contoh umum yang menggambarkan kegunaan zkML adalah ketika pengguna memerlukan orang lain untuk menjalankan data melalui model dan memverifikasi bahwa rekan mereka memang telah menjalankan model yang benar. Pengembang yang menggunakan penyedia komputasi terdesentralisasi untuk melatih model mereka mungkin khawatir tentang penyedia ini memotong biaya dengan menggunakan model-model yang lebih murah yang menghasilkan output dengan perbedaan yang hampir tidak terlihat. zkML memungkinkan penyedia komputasi untuk menjalankan data melalui model mereka dan kemudian menghasilkan bukti yang dapat diverifikasi di rantai, membuktikan bahwa output model untuk input yang diberikan benar. Dalam skenario ini, penyedia model memperoleh keuntungan tambahan dengan dapat menawarkan model mereka tanpa harus mengungkapkan bobot yang mendasari yang menghasilkan output.

Kebalikannya juga mungkin terjadi. Jika pengguna ingin menjalankan model pada data mereka tetapi tidak ingin memberikan akses proyek model ke data mereka karena kekhawatiran privasi (misalnya, dalam pemeriksaan medis atau informasi bisnis properti), mereka dapat menjalankan model pada data mereka tanpa berbagi data, dan kemudian memverifikasi melalui bukti bahwa mereka telah menjalankan model yang benar. Kemungkinan ini sangat memperluas ruang desain untuk mengintegrasikan fungsionalitas AI dan kontrak pintar dengan mengatasi kendala komputasi yang menakutkan.

Infrastruktur dan alat

Dengan tahap awal dari bidang zkML, pengembangan terutama difokuskan pada membangun infrastruktur dan alat yang dibutuhkan tim untuk mengonversi model dan output mereka menjadi bukti yang dapat diverifikasi di rantai. Produk-produk ini mengabstraksi aspek zero-knowledge sebanyak mungkin.

EZKL dan Giza adalah dua proyek yang membangun alat-alat tersebut dengan menyediakan bukti-bukti yang dapat diverifikasi dari eksekusi model pembelajaran mesin. Kedua proyek ini membantu tim dalam membangun model pembelajaran mesin untuk memastikan bahwa model-model ini dapat dieksekusi dengan cara yang memungkinkan hasilnya diverifikasi secara on-chain dengan cara yang dapat dipercaya. Kedua proyek ini menggunakan Open Neural Network Exchange (ONNX) untuk mengonversi model-model pembelajaran mesin yang ditulis dalam bahasa umum seperti TensorFlow dan Pytorch ke dalam format standar. Mereka kemudian menghasilkan versi-versi dari model-model ini yang juga menghasilkan bukti zk saat dieksekusi. EZKL adalah open-source, menghasilkan zk-SNARKs, sementara Giza adalah closed-source, menghasilkan zk-STARKs. Kedua proyek ini saat ini hanya kompatibel dengan EVM.

Dalam beberapa bulan terakhir, EZKL telah membuat kemajuan signifikan dalam meningkatkan solusi zkML, terutama berfokus pada pengurangan biaya, peningkatan keamanan, dan percepatan generasi bukti. Sebagai contoh, pada November 2023, EZKL mengintegrasikan perpustakaan GPU sumber terbuka yang baru yang mengurangi waktu bukti agregasi sebesar 35%; pada Januari, EZKL merilis Lilith, solusi perangkat lunak untuk mengintegrasikan klaster komputasi berkinerja tinggi dan mengatur sistem pekerjaan simultan saat menggunakan bukti EZKL. Keunikan Giza terletak pada penyediaan alat untuk membuat model pembelajaran mesin yang dapat diverifikasi dan merencanakan untuk menerapkan versi web3 dari Hugging Face, membuka pasar pengguna untuk kolaborasi zkML dan berbagi model, dan akhirnya mengintegrasikan produk komputasi terdesentralisasi. Pada Januari, EZKL memublikasikan evaluasi benchmark yang membandingkan kinerja EZKL, Giza, dan RiscZero (sebagaimana dijelaskan di bawah), menampilkan waktu bukti yang lebih cepat dan penggunaan memori.

Modulus Labs saat ini sedang mengembangkan teknologi bukti zero-knowledge (zk) baru yang dikhususkan untuk model AI. Modulus merilis sebuah paper berjudul “Intelligent Cost,” yang menyiratkan bahwa menjalankan model AI on-chain mengakibatkan biaya yang terlalu tinggi. Paper ini, yang diterbitkan pada Januari 2023, melakukan benchmark terhadap sistem bukti zk yang ada untuk mengidentifikasi peningkatan dalam kemampuan bukti zk dan hambatan dalam model AI. Paper ini mengungkapkan bahwa produk-produk saat ini terlalu mahal dan tidak efisien untuk aplikasi AI berskala besar. Melanjutkan penelitian awal, Modulus meluncurkan Remainder pada bulan November, sebuah zk prover khusus yang bertujuan untuk mengurangi biaya dan waktu bukti untuk model AI, membuat proyek-proyek tersebut ekonomis untuk integrasi berskala besar ke dalam smart contracts. Karya mereka bersifat properti, sehingga tidak mungkin untuk dijadikan benchmark terhadap solusi-solusi yang disebutkan, namun baru-baru ini disebutkan dalam pos blog Vitalik tentang kriptografi dan kecerdasan buatan.

Pengembangan alat dan infrastruktur sangat penting untuk pertumbuhan masa depan ruang zkML, karena dapat secara signifikan mengurangi gesekan yang terlibat dalam penyebaran perhitungan off-chain yang dapat diverifikasi dan kebutuhan untuk tim zk. Membuat antarmuka yang aman untuk praktisi pembelajaran mesin non-kripto-natif membawa model mereka ke on-chain akan memungkinkan aplikasi untuk bereksperimen dengan kasus penggunaan yang benar-benar baru. Selain itu, alat-alat ini mengatasi hambatan utama untuk adopsi yang lebih luas zkML: kurangnya pengembang yang berpengetahuan tertarik untuk bekerja di persimpangan pengetahuan, pembelajaran mesin, dan kriptografi nol pengetahuan.

Coprocessor

Solusi lain dalam pengembangan, disebut sebagai "coprocessors" (termasuk RiscZero, Axiom, dan Ritual), melayani berbagai peran, termasuk memverifikasi perhitungan off-chain on-chain. Seperti EZKL, Giza, dan Modulus, tujuan mereka adalah untuk mengabstraksi proses pembuatan bukti zk sepenuhnya, menciptakan mesin virtual tanpa pengetahuan yang mampu mengeksekusi program off-chain dan menghasilkan bukti yang dapat diverifikasi secara on-chain. RiscZero dan Axiom melayani model AI sederhana sebagai koprosesor tujuan umum, sementara Ritual dibangun khusus untuk digunakan dengan model AI.

Pertama kali Ritual, Infernet, mencakup Infernet SDK yang memungkinkan pengembang mengirimkan permintaan inferensi ke jaringan dan menerima output serta bukti opsional sebagai balasannya. Node Infernet memproses komputasi di luar rantai ini sebelum mengembalikan output. Sebagai contoh, sebuah DAO bisa mendirikan proses yang memastikan semua proposal tata kelola baru memenuhi syarat tertentu sebelum diserahkan. Setiap kali proposal baru diajukan, kontrak tata kelola memicu permintaan inferensi melalui Infernet, memanggil model AI yang dilatih khusus untuk tata kelola DAO. Model ini meninjau proposal untuk memastikan semua standar yang diperlukan terpenuhi dan mengembalikan output serta bukti untuk menyetujui atau menolak pengajuan proposal.

Selama setahun ke depan, tim Ritual berencana untuk memperkenalkan lebih banyak fitur, membentuk lapisan infrastruktur yang dikenal sebagai superchain Ritual. Banyak proyek yang dibahas dapat diintegrasikan sebagai penyedia layanan ke dalam Ritual. Tim Ritual telah mengintegrasikan EZKL untuk pembuatan bukti dan mungkin segera menambah fitur dari penyedia terkemuka lainnya. Node Infernet di Ritual juga dapat memanfaatkan GPU Akash atau io.net dan model kueri yang dilatih di subnet Bittensor. Tujuan utama mereka adalah menjadi penyedia infrastruktur AI terbuka yang disukai, menawarkan layanan untuk pembelajaran mesin dan tugas-tugas AI lainnya untuk setiap jaringan dan beban kerja.

Aplikasi

zkML membantu untuk mendamaikan dikotomi antara blockchain, yang secara inheren terbatas sumber dayanya, dan kecerdasan buatan, yang membutuhkan sumber daya komputasi dan data yang signifikan. Seperti yang dikatakan pendiri Giza, 'kasus penggunaannya sangat kaya... Ini agak seperti bertanya apa kasus penggunaan untuk kontrak pintar di awal Ethereum... Apa yang kami lakukan hanyalah memperluas kasus penggunaan untuk kontrak pintar.' Namun, seperti yang dicatat, perkembangan saat ini terutama terjadi pada level alat dan infrastruktur. Aplikasi masih berada dalam fase eksplorasi, dengan tim menghadapi tantangan untuk membuktikan bahwa nilai yang dihasilkan dengan menerapkan model dengan zkML melebihi kompleksitas dan biayanya.

Aplikasi saat ini termasuk:

  • Keuangan Terdesentralisasi (DeFi). zkML meningkatkan kemampuan kontrak pintar, meningkatkan ruang desain untuk DeFi. Protokol DeFi menawarkan banyak data yang dapat diverifikasi dan tidak berubah untuk model pembelajaran mesin untuk digunakan dalam menghasilkan strategi hasil atau perdagangan, analisis risiko, pengalaman pengguna, dll. Misalnya, Giza telah berkolaborasi dengan Yearn Finance untuk membangun mesin penilaian risiko otomatis proof-of-concept untuk brankas v3 baru Yearn. Modulus Labs bekerja sama dengan Lyra Finance untuk mengintegrasikan pembelajaran mesin ke dalam AMM-nya, dengan Ion Protocol untuk mengimplementasikan model untuk menganalisis risiko validator, dan membantu Upshot dalam memvalidasi informasi harga NFT yang didukung AI. Protokol seperti NOYA (menggunakan EZKL) dan Mozaic menyediakan akses ke model off-chain eksklusif, memungkinkan pengguna untuk mengakses penambangan likuiditas otomatis sambil memvalidasi input dan bukti data on-chain. Spectral Finance sedang mengembangkan mesin penilaian kredit on-chain untuk memprediksi kemungkinan peminjam Compound atau Aave gagal membayar pinjaman. Karena zkML, apa yang disebut produk "De-Ai-Fi" ini kemungkinan akan menjadi semakin populer di tahun-tahun mendatang.
  • Gaming. Game telah lama dianggap untuk gangguan dan peningkatan melalui blockchain publik. zkML memungkinkan permainan kecerdasan buatan on-chain. Modulus Labs telah mewujudkan bukti konsep untuk permainan on-chain yang sederhana. “Leela vs the World” adalah permainan catur berbasis teori permainan di mana pengguna bersaing melawan model catur AI, dengan zkML memverifikasi setiap langkah Leela berdasarkan model berjalan permainan. Demikian pula, tim menggunakan kerangka EZKL untuk membangun kompetisi menyanyi sederhana dan permainan tic-tac-toe on-chain. Cartridge menggunakan Giza untuk memungkinkan tim men-deploy permainan sepenuhnya on-chain, baru-baru ini menyoroti permainan mengemudi AI sederhana di mana pengguna dapat bersaing untuk menciptakan model yang lebih baik untuk mobil yang mencoba menghindari rintangan. Meskipun sederhana, bukti konsep ini menunjukkan implementasi masa depan yang mampu melakukan verifikasi on-chain yang lebih kompleks, seperti aktor NPC kompleks yang dapat berinteraksi dengan ekonomi dalam permainan, seperti yang terlihat dalam “AI Arena,” permainan Super Smash Brothers di mana pemain dapat melatih pejuang mereka dan kemudian mendeploy mereka sebagai model AI untuk bertarung.
  • Identitas, Provenans, dan Privasi. Mata Uang Kripto telah digunakan untuk memverifikasi keaslian dan melawan masalah yang semakin meningkat terkait konten yang dihasilkan/diubah oleh kecerdasan buatan dan deep fake. zkML dapat memajukan upaya-upaya ini. WorldCoin adalah solusi verifikasi identitas yang meminta pengguna memindai iris mereka untuk menghasilkan ID unik. Di masa depan, ID biometrik bisa disimpan sendiri di perangkat pribadi menggunakan enkripsi dan diverifikasi menggunakan model yang berjalan secara lokal. Pengguna kemudian dapat memberikan bukti biometrik tanpa mengungkap identitas mereka, sehingga dapat melindungi diri dari serangan Sybil sambil memastikan privasi. Hal ini juga dapat diterapkan pada inferensi-inferensi lain yang memerlukan privasi, seperti menggunakan model untuk menganalisis data/gambar medis untuk deteksi penyakit, memverifikasi kepribadian, dan mengembangkan algoritma pencocokan dalam aplikasi kencan, atau lembaga asuransi dan peminjaman yang perlu memverifikasi informasi keuangan.

Tinjauan

zkML tetap bersifat eksperimental, dengan sebagian besar proyek berfokus pada membangun primitif infrastruktur dan bukti konsep. Tantangan saat ini termasuk biaya komputasi, batasan memori, kompleksitas model, keterbatasan alat dan infrastruktur, dan talenta pengembang. Singkatnya, masih banyak pekerjaan yang harus dilakukan sebelum zkML dapat diimplementasikan dalam skala yang diperlukan oleh produk konsumen.

Namun, seiring dengan berkembangnya bidang ini dan penyelesaian terhadap keterbatasan-keterbatasan ini, zkML akan menjadi komponen kunci dalam mengintegrasikan kecerdasan buatan dengan kriptografi. Pada dasarnya, zkML berjanji untuk membawa skala komputasi off-chain ke on-chain, sambil tetap mempertahankan jaminan keamanan yang sama atau serupa seperti berjalan on-chain. Namun, sebelum visi ini terwujud, pengguna awal teknologi akan terus harus menyeimbangkan privasi dan keamanan zkML dengan efisiensi dari alternatif-alternatif.

Agen Kecerdasan Buatan

Agen Kecerdasan Buatan

Salah satu integrasi yang paling menarik dari kecerdasan buatan dan mata uang kripto adalah eksperimen yang sedang berlangsung dengan agen kecerdasan buatan. Agen adalah robot otonom yang mampu menerima, menginterpretasikan, dan mengeksekusi tugas menggunakan model AI. Ini bisa bervariasi mulai dari memiliki asisten pribadi yang tersedia setiap saat, disesuaikan dengan preferensi Anda, hingga menyewa agen keuangan untuk mengelola dan menyesuaikan portofolio investasi Anda berdasarkan preferensi risiko Anda.

Mengingat bahwa cryptocurrency menawarkan infrastruktur pembayaran tanpa izin dan tanpa kepercayaan, agen dan cryptocurrency dapat diintegrasikan dengan baik. Setelah dilatih, agen akan memiliki dompet, memungkinkan mereka untuk melakukan transaksi sendiri menggunakan kontrak pintar. Misalnya, agen saat ini dapat mengikis informasi di internet dan kemudian berdagang di pasar prediksi berdasarkan model.

Penyedia Agen

Morpheus adalah salah satu proyek agen open-source terbaru yang diluncurkan pada tahun 2024 di Ethereum dan Arbitrum. White paper-nya diterbitkan secara anonim pada September 2023, memberikan dasar untuk pembentukan dan pembangunan komunitas, termasuk tokoh-tokoh terkemuka seperti Erik Vorhees. White paper ini mencakup protokol agen pintar yang dapat diunduh, LLM open-source yang dapat dijalankan secara lokal, dikelola oleh dompet pengguna, dan berinteraksi dengan kontrak pintar. Ini menggunakan peringkat kontrak pintar untuk membantu agen menentukan kontrak pintar mana yang dapat berinteraksi dengan aman berdasarkan kriteria seperti jumlah transaksi yang diproses.

Buku putih ini juga menyediakan kerangka kerja untuk membangun jaringan Morpheus, termasuk struktur insentif dan infrastruktur yang diperlukan untuk menjalankan protokol agen pintar. Ini termasuk insentif bagi kontributor untuk membangun front-end untuk berinteraksi dengan agen, API bagi pengembang untuk membangun agen plug-in untuk interaksi timbal balik, dan solusi cloud bagi pengguna untuk mengakses komputasi dan penyimpanan yang diperlukan untuk menjalankan agen di perangkat edge. Pendanaan awal proyek diluncurkan pada awal Februari, dengan protokol penuh diharapkan akan diluncurkan pada kuartal kedua 2024.

Decentralized Autonomous Infrastructure Network (DAIN) adalah protokol infrastruktur agen baru yang membangun ekonomi agen-ke-agen di Solana. Tujuan DAIN adalah memungkinkan agen dari berbagai perusahaan untuk berinteraksi secara mulus satu sama lain melalui API umum, membuka ruang desain yang signifikan untuk agen kecerdasan buatan, berfokus pada agen yang dapat berinteraksi dengan produk web2 dan web3. Pada bulan Januari, DAIN mengumumkan kemitraan pertamanya dengan Asset Shield, memungkinkan pengguna untuk menambahkan "penandatangan agen" ke multisigs mereka, yang mampu mengartikan transaksi dan menyetujui/menolak berdasarkan aturan yang ditetapkan pengguna.

Fetch.AI adalah salah satu protokol agen AI yang diterapkan secara early dan telah mengembangkan ekosistem untuk membangun, menerapkan, dan menggunakan agen on-chain menggunakan token FET dan dompet Fetch.AI. Protokol ini menawarkan rangkaian alat dan aplikasi yang komprehensif untuk menggunakan agen, termasuk fungsi dompet-in untuk berinteraksi dengan dan memesan agen.

Autonolas, yang didirikan oleh mantan anggota tim Fetch, adalah pasar terbuka untuk membuat dan menggunakan agen AI terdesentralisasi. Autonolas juga menyediakan serangkaian alat bagi pengembang untuk membangun agen AI yang di-host di luar rantai yang dapat terhubung ke beberapa blockchain, termasuk Polygon, Ethereum, Gnosis Chain, dan Solana. Saat ini, mereka memiliki beberapa produk konsep bukti agen aktif, termasuk untuk pasar prediksi dan tata kelola DAO.

SingularityNet sedang membangun pasar terdesentralisasi untuk agen kecerdasan buatan, di mana agen kecerdasan buatan khusus dapat dikerahkan, yang dapat disewa oleh orang lain atau agen untuk melakukan tugas-tugas kompleks. Perusahaan lain seperti AlteredStateMachine sedang membangun integrasi agen kecerdasan buatan dengan NFT. Pengguna mencetak NFT dengan atribut-atribut acak, yang memberi mereka kelebihan dan kekurangan dalam tugas-tugas yang berbeda. Agen-agen ini kemudian dapat dilatih untuk meningkatkan atribut-atribut tertentu untuk digunakan dalam permainan, DeFi, atau sebagai asisten virtual dan diperdagangkan dengan pengguna lain.

Secara keseluruhan, proyek-proyek ini memvisualisasikan suatu ekosistem masa depan dari agen-agen yang mampu bekerja secara kolaboratif bukan hanya untuk melakukan tugas-tugas tetapi juga untuk membantu membangun kecerdasan buatan umum. Agen-agen yang benar-benar kompleks akan memiliki kemampuan untuk menyelesaikan tugas-tugas pengguna secara otonom. Sebagai contoh, agen-agen yang sepenuhnya otonom akan mampu menemukan cara untuk mempekerjakan agen lain untuk mengintegrasikan sebuah API, kemudian mengeksekusi suatu tugas tanpa harus memastikan bahwa agen tersebut sudah terintegrasi dengan API-Api eksternal (seperti situs pemesanan perjalanan) sebelum penggunaan. Dari sudut pandang pengguna, tidak perlu memeriksa apakah suatu agen dapat menyelesaikan suatu tugas, karena agen tersebut dapat menentukannya sendiri.

Bitcoin dan Agen AI

Pada Juli 2023, Lightning Labs meluncurkan implementasi konsep bukti untuk memanfaatkan agen di Jaringan Lightning, yang dijuluki paket Bitcoin oleh LangChain. Produk ini sangat menarik karena bertujuan untuk menangani masalah yang semakin parah di dunia Web 2—kunci API yang tergabung dan mahal dari aplikasi web.

LangChain mengatasi masalah ini dengan menyediakan pengembang dengan serangkaian alat yang memungkinkan agen untuk membeli, menjual, dan menyimpan Bitcoin, serta untuk mengambil kunci API dan mengirim pembayaran mikro. Pada rel pembayaran tradisional, pembayaran mikro sangat mahal karena biaya, tetapi di Jaringan Lightning, agen dapat mengirim sejumlah pembayaran mikro setiap hari dengan biaya minimal. Ketika digunakan bersama dengan kerangka kerja API metering pembayaran L402 LangChain, perusahaan dapat menyesuaikan biaya akses API mereka berdasarkan peningkatan dan penurunan penggunaan, daripada menetapkan standar tunggal yang mahal.

Di masa depan, aktivitas rantai akan didorong secara dominan oleh interaksi antara agen dan agen, yang memerlukan mekanisme untuk memastikan agen dapat berinteraksi satu sama lain tanpa biaya yang melarang. Contoh awal ini menunjukkan potensi penggunaan agen pada rel pembayaran tanpa izin dan efisien secara ekonomi, membuka kemungkinan untuk pasar dan interaksi ekonomi baru.

Tinjauan

Bidang agen masih dalam tahap awal. Proyek-proyek baru saja mulai meluncurkan agen fungsional yang mampu menangani tugas-tugas sederhana—akses biasanya terbatas pada pengembang dan pengguna berpengalaman. Namun, seiring berjalannya waktu, salah satu dampak paling signifikan dari agen kecerdasan buatan pada mata uang kripto akan menjadi peningkatan pengalaman pengguna di semua sektor. Transaksi akan mulai beralih dari berbasis klik menjadi berbasis teks, memungkinkan pengguna berinteraksi dengan agen on-chain melalui antarmuka percakapan. Tim seperti Dawn Wallet sudah meluncurkan dompet chatbot, memungkinkan pengguna berinteraksi on-chain.

Selain itu, masih belum jelas bagaimana agen akan beroperasi di Web 2, karena rel keuangan mengandalkan lembaga perbankan yang diatur yang tidak dapat beroperasi 24/7 atau memfasilitasi transaksi lintas batas yang lancar. Seperti yang disorot oleh Lyn Alden, kurangnya pengembalian dana dan kemampuan untuk menangani mikrotransaksi membuat rel mata uang kripto terutama menarik dibandingkan dengan kartu kredit. Namun, jika agen menjadi medium yang lebih umum untuk transaksi, penyedia pembayaran dan aplikasi yang ada kemungkinan akan cepat beradaptasi, mengimplementasikan infrastruktur yang diperlukan untuk beroperasi pada rel keuangan yang ada, sehingga mengurangi beberapa manfaat menggunakan mata uang kripto.

Saat ini, agen mungkin terbatas pada transaksi mata uang kripto deterministik, di mana input tertentu menjamin output tertentu. Kedua model telah menguraikan kemampuan agen ini untuk mencari tahu cara melakukan tugas kompleks, dan alat-alat sedang memperluas rentang tugas yang dapat mereka selesaikan, yang semuanya memerlukan pengembangan lebih lanjut. Agar agen kripto menjadi berguna di luar kasus penggunaan mata uang kripto on-chain yang baru, integrasi lebih luas dan penerimaan mata uang kripto sebagai bentuk pembayaran, bersama dengan kejelasan regulasi, diperlukan. Namun, saat komponen-komponen ini berkembang, agen-agen siap untuk menjadi salah satu konsumen terbesar dari solusi komputasi terdesentralisasi dan zkML, secara otonom menerima dan menyelesaikan setiap tugas dengan cara yang tidak deterministik.

Kesimpulan

AI memperkenalkan inovasi yang sama ke mata uang kripto yang telah kita lihat dalam web2, meningkatkan segalanya mulai dari pengembangan infrastruktur hingga pengalaman pengguna dan aksesibilitas. Namun, proyek-proyek masih berada dalam tahap awal pengembangan, dan integrasi mata uang kripto dan AI dalam jangka pendek akan didorong terutama oleh integrasi di luar rantai.

Produk seperti Copilot diatur untuk “meningkatkan efisiensi pengembang hingga 10x,” dan aplikasi Layer 1 dan DeFi telah meluncurkan platform pengembangan yang dibantu AI bekerja sama dengan perusahaan-perusahaan besar seperti Microsoft. Perusahaan seperti Cub3.ai dan Test Machine sedang mengembangkan integrasi AI untuk pemeriksaan kontrak pintar dan pemantauan ancaman real-time untuk meningkatkan keamanan on-chain. Chatbot LLM sedang dilatih dengan data on-chain, dokumentasi protokol, dan aplikasi untuk memberikan pengguna aksesibilitas dan pengalaman pengguna yang ditingkatkan.

Tantangan untuk integrasi yang lebih maju yang benar-benar memanfaatkan teknologi yang mendasari cryptocurrency tetap membuktikan bahwa menerapkan solusi AI on-chain layak secara teknis dan ekonomi. Pengembangan komputasi terdesentralisasi, zkML, dan agen AI menunjukkan vertikal yang menjanjikan yang meletakkan dasar bagi masa depan cryptocurrency dan AI yang saling berhubungan secara mendalam.

Disclaimer:

  1. Artikel ini diambil daritechflow, Semua hak cipta milik penulis asli [Lucas Tcheyan]. Jika ada keberatan terhadap cetak ulang ini, harap hubungi Gate Belajartim, dan mereka akan menanganinya dengan cepat.
  2. Penolakan Tanggung Jawab Kewajiban: Pandangan dan opini yang terdapat dalam artikel ini semata-mata milik penulis dan tidak merupakan saran investasi apa pun.
  3. Terjemahan artikel ke dalam bahasa lain dilakukan oleh tim Gate Learn. Kecuali disebutkan, menyalin, mendistribusikan, atau melakukan plagiarisme terhadap artikel yang diterjemahkan dilarang.
Lancez-vous
Inscrivez-vous et obtenez un bon de
100$
!