OpenLedger membangun ekosistem insentif model AI on-chain berdasarkan OP Stack dan EigenDA

OpenLedger Kedalaman Laporan Penelitian: Membangun Ekonomi Agen yang Didorong Data dan Dapat Dikombinasikan Model dengan Dasar OP Stack + EigenDA

I. Pendahuluan | Lompatan lapisan model Crypto AI

Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, yang dapat dis类比 dengan bahan bakar (data), mesin (model), dan energi (daya komputasi) yang tidak bisa dipisahkan. Seperti jalur evolusi infrastruktur di industri AI tradisional, bidang Crypto AI juga telah mengalami tahap yang serupa. Pada awal tahun 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi, yang secara umum menekankan logika pertumbuhan kasar "menggabungkan daya komputasi". Namun, menjelang tahun 2025, fokus industri secara bertahap bergeser ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari kompetisi sumber daya dasar menuju pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.

Model Besar Umum (LLM) vs Model Khusus (SLM)

Model bahasa besar tradisional (LLM) sangat bergantung pada kumpulan data besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter yang sering mencapai 70B hingga 500B, dan biaya pelatihan sekali dapat mencapai jutaan dolar. Sementara itu, SLM (Model Bahasa Khusus) sebagai suatu paradigma penyesuaian ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka seperti LLaMA, Mistral, DeepSeek, dan menggabungkan sejumlah kecil data profesional berkualitas tinggi serta teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.

Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, melainkan beroperasi bersama LLM melalui pemanggilan arsitektur Agent, sistem plugin untuk routing dinamis, hot-plug modul LoRA, dan RAG (Retrieval-Augmented Generation). Arsitektur ini tidak hanya mempertahankan kemampuan jangkauan luas LLM, tetapi juga meningkatkan kinerja profesional melalui modul penyetelan halus, membentuk sistem cerdas modular yang sangat fleksibel.

Nilai dan batas AI Crypto pada lapisan model

Proyek Crypto AI pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti model bahasa besar (LLM), alasan utamanya adalah

  • Hambatan teknis terlalu tinggi: Skala data, sumber daya komputasi, dan kemampuan rekayasa yang diperlukan untuk melatih Model Fondasi sangat besar, saat ini hanya perusahaan teknologi besar seperti Amerika Serikat dan Cina yang memiliki kemampuan yang sesuai.
  • Keterbatasan ekosistem sumber terbuka: Meskipun model dasar utama seperti LLaMA, Mixtral telah sumber terbuka, kunci untuk mendorong terobosan model masih terpusat pada lembaga penelitian dan sistem rekayasa tertutup, proyek di blockchain memiliki ruang partisipasi yang terbatas pada lapisan model inti.

Namun, di atas model dasar sumber terbuka, proyek Crypto AI masih dapat memperpanjang nilai melalui penyetelan model bahasa khusus (SLM) dan menggabungkan verifiabilitas dan mekanisme insentif Web3. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, hal ini tercermin dalam dua arah inti:

  • Lapisan verifikasi yang dapat dipercaya: Meningkatkan jejak yang dapat dilacak dan kemampuan anti-ubah dari output AI dengan mencatat jalur generasi model, kontribusi data, dan penggunaan di dalam rantai.
  • Mekanisme insentif: Dengan menggunakan Token asli, untuk mendorong perilaku seperti unggahan data, pemanggilan model, dan eksekusi agen, membangun siklus positif pelatihan model dan layanan.

Klasifikasi Tipe Model AI dan Analisis Kesesuaian Blockchain

Dari sini dapat dilihat bahwa titik fokus yang dapat dilakukan dari proyek Crypto AI berbasis model terutama terkonsentrasi pada penyetelan ringan SLM kecil, pengaksesan dan verifikasi data on-chain dalam arsitektur RAG, serta penerapan dan insentif model Edge secara lokal. Menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model sumber daya menengah ke bawah ini, membentuk nilai diferensiasi pada "lapisan antarmuka" AI.

Blockchain AI chain yang berbasis data dan model dapat mencatat sumber kontribusi setiap data dan model secara jelas dan tidak dapat diubah, secara signifikan meningkatkan keandalan data dan keterlacakan pelatihan model. Pada saat yang sama, melalui mekanisme kontrak pintar, ketika data atau model dipanggil, distribusi hadiah akan otomatis dipicu, mengubah perilaku AI menjadi nilai tokenisasi yang dapat diukur dan diperdagangkan, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat menilai kinerja model melalui pemungutan suara token, berpartisipasi dalam penyusunan aturan dan iterasi, serta menyempurnakan struktur pemerintahan terdesentralisasi.

OpenLedger Kedalaman Laporan Penelitian: Membangun Ekonomi Agen yang Didorong Data dan Dapat Dikombinasikan Model Menggunakan OP Stack+EigenDA

Dua, Ringkasan Proyek | Visi Rantai AI OpenLedger

OpenLedger adalah salah satu proyek AI blockchain yang fokus pada mekanisme insentif data dan model di pasar saat ini. Proyek ini pertama kali mengusulkan konsep "Payable AI" yang bertujuan untuk membangun lingkungan operasional AI yang adil, transparan, dan dapat digabungkan, yang mendorong kolaborasi antara kontributor data, pengembang model, dan pembangun aplikasi AI di platform yang sama, serta mendapatkan keuntungan on-chain berdasarkan kontribusi nyata.

OpenLedger menyediakan rantai tertutup penuh dari "penyediaan data" hingga "penempatan model" dan "panggilan pembagian keuntungan", dengan modul inti sebagai berikut:

  • Model Factory: Tanpa perlu pemrograman, Anda dapat menggunakan LoRA untuk pelatihan fine-tuning dan penerapan model kustom berdasarkan LLM sumber terbuka;
  • OpenLoRA: Mendukung co-existence seribu model, memuat secara dinamis sesuai permintaan, secara signifikan mengurangi biaya penggelaran;
  • PoA (Proof of Attribution): Mengukur kontribusi dan distribusi hadiah melalui pencatatan pemanggilan di blockchain;
  • Datanets:Jaringan data terstruktur yang ditujukan untuk skenario vertikal, dibangun dan divalidasi melalui kolaborasi komunitas;
  • Platform Usulan Model (Model Proposal Platform): pasar model on-chain yang dapat digabungkan, dipanggil, dan dibayar.

Melalui modul di atas, OpenLedger membangun "infrastruktur ekonomi agen pintar" yang didorong oleh data dan dapat dikombinasikan modelnya, mendorong on-chain dari rantai nilai AI.

Dan dalam adopsi teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, untuk membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.

  • Dibangun di atas OP Stack: Berdasarkan tumpukan teknologi Optimism, mendukung throughput tinggi dan biaya rendah dalam eksekusi;
  • Settled di jaringan utama Ethereum: Memastikan keamanan transaksi dan integritas aset;
  • EVM kompatibel: Memudahkan pengembang untuk dengan cepat menerapkan dan memperluas berdasarkan Solidity;
  • EigenDA menyediakan dukungan ketersediaan data: secara signifikan mengurangi biaya penyimpanan, menjamin verifikasi data.

Dibandingkan dengan NEAR yang lebih berfokus pada lapisan dasar, mengutamakan kedaulatan data dan arsitektur "AI Agents on BOS", OpenLedger lebih fokus pada pembangunan rantai khusus AI yang berorientasi pada data dan insentif model, berkomitmen untuk mewujudkan pengembangan dan pemanggilan model yang dapat dilacak, dapat disusun, dan menciptakan siklus nilai yang berkelanjutan di atas rantai. Ini adalah infrastruktur insentif model dalam dunia Web3, menggabungkan pengelolaan model ala HuggingFace, penagihan penggunaan ala Stripe, dan antarmuka komposabel di atas rantai ala Infura, mendorong jalur realisasi "model sebagai aset".

OpenLedgerKedalaman研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger

3.1 Model Factory, tanpa kode model pabrik

ModelFactory adalah platform penyetelan mikro model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka penyetelan tradisional, ModelFactory menyediakan antarmuka grafis murni, tanpa perlu alat baris perintah atau integrasi API. Pengguna dapat melakukan penyetelan pada model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terintegrasi untuk otorisasi data, pelatihan model, dan penerapan, dengan proses inti yang mencakup:

  • Kontrol akses data: Pengguna mengajukan permintaan data, penyedia meninjau dan menyetujui, data secara otomatis terhubung ke antarmuka pelatihan model.
  • Pemilihan dan konfigurasi model: Mendukung LLM utama (seperti LLaMA, Mistral), mengonfigurasi hyperparameter melalui GUI.
  • Penyesuaian ringan: Mesin LoRA / QLoRA bawaan, menampilkan kemajuan pelatihan secara real-time.
  • Evaluasi dan Penerapan Model: Alat evaluasi bawaan, mendukung ekspor penerapan atau berbagi panggilan ekosistem.
  • Antarmuka verifikasi interaktif: Menyediakan antarmuka berbasis percakapan, memudahkan pengujian kemampuan tanya jawab model secara langsung.
  • RAG menghasilkan jejak: menjawab dengan referensi sumber, meningkatkan kepercayaan dan dapat diaudit.

Arsitektur sistem Model Factory mencakup enam modul, meliputi autentikasi identitas, izin data, penyesuaian model, evaluasi penerapan, dan pelacakan RAG, menciptakan platform layanan model terpadu yang aman dan terkontrol, interaksi waktu nyata, serta dapat menghasilkan pendapatan secara berkelanjutan.

OpenLedger Kedalaman Riset: Membangun ekonomi agen yang didorong oleh data dan dapat digabungkan dengan model menggunakan OP Stack+EigenDA

ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:

  • Seri LLaMA: Ekosistem terluas, komunitas aktif, dan kinerja umum yang kuat, merupakan salah satu model dasar sumber terbuka yang paling populer saat ini.
  • Mistral: Arsitektur yang efisien, kinerja inferensi yang sangat baik, cocok untuk diterapkan dalam skenario yang fleksibel dan sumber daya terbatas.
  • Qwen: Kemampuan komprehensif yang kuat, cocok sebagai pilihan pertama bagi pengembang dalam negeri.
  • ChatGLM: Efek percakapan dalam bahasa Mandarin sangat menonjol, cocok untuk layanan pelanggan spesifik dan skenario lokalisasi.
  • Deepseek: Unggul dalam penghasil kode dan penalaran matematis, cocok untuk alat bantu pengembangan cerdas.
  • Gemma: Model ringan yang diluncurkan oleh Google, memiliki struktur yang jelas, mudah untuk cepat dipelajari dan dieksperimen.
  • Falcon: Pernah menjadi tolok ukur kinerja, cocok untuk penelitian dasar atau pengujian perbandingan, tetapi tingkat keaktifan komunitas telah menurun.
  • BLOOM: Dukungan multibahasa cukup kuat, tetapi kinerja inferensi relatif lemah, cocok untuk penelitian yang mencakup berbagai bahasa.
  • GPT-2: Model klasik awal, hanya cocok untuk tujuan pengajaran dan verifikasi, tidak disarankan untuk digunakan dalam penerapan nyata.

Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "prioritas praktis" yang dibuat berdasarkan batasan realitas yang diterapkan di blockchain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM).

Model Factory sebagai rantai alat tanpa kode, semua model sudah dilengkapi dengan mekanisme bukti kontribusi, memastikan hak data kontributor dan pengembang model, memiliki keunggulan ambang rendah, dapat dimonetisasi, dan dapat digabungkan, dibandingkan dengan alat pengembangan model tradisional:

  • Untuk pengembang: Menyediakan jalur lengkap untuk inkubasi model, distribusi, dan pendapatan;
  • Untuk platform: membentuk sirkulasi aset model dan ekosistem kombinasi;
  • Untuk pengguna: Anda dapat menggabungkan model atau Agen seperti memanggil API.

OpenLedger Kedalaman Riset: Membangun Ekonomi Agensi yang Didorong Data dan Kombinasi Model dengan OP Stack+EigenDA sebagai Dasar

3.2 OpenLoRA, aset on-chain dari model fine-tuning

LoRA (Low-Rank Adaptation) adalah metode penyesuaian parameter yang efisien, yang belajar tugas baru dengan menyisipkan "matriks rendah-rank" ke dalam model besar yang telah dilatih sebelumnya, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakannya untuk tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan penyesuaian (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang disisipkan." Metode ini efisien dalam parameter, pelatihan cepat, dan fleksibel dalam penerapan, merupakan metode penyesuaian utama yang paling cocok untuk penerapan dan pemanggilan kombinasi model Web3 saat ini.

OpenLoRA adalah kerangka kerja inferensi ringan yang dibangun oleh OpenLedger dan dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya. Tujuan utamanya adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini, seperti biaya tinggi, rendahnya penggunaan kembali, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).

Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, pelaksanaan inferensi, pengalihan permintaan, dan aspek kunci lainnya, untuk mewujudkan kemampuan penyebaran dan pemanggilan multi-model yang efisien dan biaya rendah:

  • Modul Penyimpanan LoRA Adapter (LoRA Adapters Storage): LoRA adapter yang telah disesuaikan dihosting di OpenLedger, memungkinkan pemuatan sesuai permintaan, menghindari pemuatan semua model ke dalam memori grafis, menghemat sumber daya.
  • Model Hosting dan Lapisan Penggabungan Adapter (Model Hosting & Adapter Merging Layer)
OP-4.91%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 10
  • Posting ulang
  • Bagikan
Komentar
0/400
GasFeeWhisperervip
· 08-19 18:34
Siapa yang masih menggunakan jalur GPU?
Lihat AsliBalas0
MrDecodervip
· 08-18 15:49
Sekali lagi dianggap bodoh ya
Lihat AsliBalas0
gas_fee_therapistvip
· 08-16 20:00
Kita bisa bilang bahwa hype tentang GPU sudah ketinggalan zaman.
Lihat AsliBalas0
CryptoNomicsvip
· 08-16 19:57
*sigh* yet another narasi GPT yang kurang analisis keseimbangan stokastik
Lihat AsliBalas0
FlashLoanLordvip
· 08-16 19:47
Ah, ini kan permainan yang mengandalkan Daya Komputasi.
Lihat AsliBalas0
HodlVeteranvip
· 08-16 19:44
Gelombang narasi AI lainnya datang, sopir berpengalaman menyarankan semua orang untuk mengenakan sabuk pengaman.
Lihat AsliBalas0
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)