データ、モデルと算力は AI インフラの三大コア要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)の比喩で欠かせないものです。従来の AI 業界のインフラ進化パスに似て、Crypto AI 分野も同様の段階を経てきました。2024 年初め、マーケットは一時的に分散型 GPU プロジェクトによって主導され、「算力を競う」粗放型成長ロジックが一般的に強調されました。しかし、2025 年に入ると、業界の関心は徐々にモデルとデータ層に移行し、Crypto AI が基盤リソースの競争から、より持続可能で応用価値のある中層構築へと移行していることを示しています。
General Large Model(LLM)とSpecialized Model(SLM)
従来の大規模言語モデル(LLM)のトレーニングは、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B~500Bに達し、トレーニング1回のコストは数百万ドルに上ることが常です。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量なファインチューニングパラダイムとして、通常LLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質な専門データやLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に低減します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)
NEARのようなより基盤的で、データ主権を重視し、「AI Agents on BOS」アーキテクチャを持つ汎用AIチェーンに比べて、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力しています。モデルの開発と呼び出しをブロックチェーン上で追跡可能、組み合わせ可能、持続可能な価値の閉ループを実現することに努めています。これはWeb3の世界におけるモデルインセンティブの基盤インフラであり、HuggingFaceスタイルのモデルホスティング、Stripeスタイルの使用課金、Infuraスタイルのブロックチェーン上の組み合わせ可能なインターフェースを組み合わせて、「モデルは資産である」という実現への道を推進しています。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)
Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価展開、RAGトレーサビリティを通じて、6つの主要モジュールを含み、安全で制御可能、リアルタイムインタラクション、持続可能なマネタイズを実現する統合モデルサービスプラットフォームを構築します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)
Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ貢献者とモデル開発者の権利を確保しています。低い敷居、収益化可能性、そして組み合わせ可能性の利点があります。従来のモデル開発ツールと比較して:
開発者向け:モデルのインキュベーション、配布、収益の完全なパスを提供する;
プラットフォームに対して:モデル資産の流通と組合エコシステムを形成する;
アプリケーター向け:モデルやエージェントをAPIのように組み合わせて使用できます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)
OpenLedgerはAIオンチェーンモデルのインセンティブエコシステムを構築します OP StackとEigenDAに基づいて
OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデル可コンビネーションのスマートエコノミーを構築する
一、引言 | Crypto AI のモデルレイヤーの躍進
データ、モデルと算力は AI インフラの三大コア要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)の比喩で欠かせないものです。従来の AI 業界のインフラ進化パスに似て、Crypto AI 分野も同様の段階を経てきました。2024 年初め、マーケットは一時的に分散型 GPU プロジェクトによって主導され、「算力を競う」粗放型成長ロジックが一般的に強調されました。しかし、2025 年に入ると、業界の関心は徐々にモデルとデータ層に移行し、Crypto AI が基盤リソースの競争から、より持続可能で応用価値のある中層構築へと移行していることを示しています。
General Large Model(LLM)とSpecialized Model(SLM)
従来の大規模言語モデル(LLM)のトレーニングは、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B~500Bに達し、トレーニング1回のコストは数百万ドルに上ることが常です。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量なファインチューニングパラダイムとして、通常LLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質な専門データやLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に低減します。
注目すべきは、SLMはLLMの重みには統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRAモジュールのホットスワップ、RAG(検索強化生成)などの方法でLLMと協調して動作することです。このアーキテクチャはLLMの広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟な組み合わせ型インテリジェントシステムを形成しています。
Crypto AI におけるモデル層の価値と境界
Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)のコア能力を直接向上させることは難しく、その核心的な理由は
しかし、オープンソースの基盤モデルの上に、Crypto AIプロジェクトは依然として特化された言語モデル(SLM)を微調整し、Web3の検証可能性とインセンティブメカニズムを組み合わせることで価値を拡張することができます。AI産業チェーンの「周辺インターフェース層」として、二つの核心的な方向に現れます:
AIモデルタイプの分類とブロックチェーンの適用性分析
このように、モデル型 Crypto AI プロジェクトの実行可能な落ち着き点は、主に小型 SLM の軽量化ファインチューニング、RAG アーキテクチャのチェーン上データ接続と検証、そして Edge モデルのローカルデプロイとインセンティブに集中しています。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Crypto はこれらの中低リソースモデルシナリオに特有の価値を提供し、AI「インターフェース層」の差別化された価値を形成します。
データとモデルに基づくブロックチェーンAIチェーンは、各データとモデルの貢献源について明確で改ざん不可能なオンチェーン記録を行い、データの信頼性とモデルのトレーニングのトレーサビリティを大幅に向上させます。同時に、スマートコントラクトメカニズムを通じて、データまたはモデルが呼び出されたときに自動的に報酬分配をトリガーし、AIの行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティユーザーはトークン投票を通じてモデルのパフォーマンスを評価し、ルールの策定と迭代に参加し、分散型ガバナンス構造を改善することができます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)
二、プロジェクト概要 | OpenLedger の AI チェーンビジョン
OpenLedgerは、現在市場に存在する数少ないデータとモデルインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。彼らは「Payable AI」の概念を初めて提案し、公平で透明かつ組み合わせ可能なAI運用環境を構築することを目指しています。データ提供者、モデル開発者、AIアプリケーションビルダーが同じプラットフォームで協力し、実際の貢献に基づいてオンチェーン収益を得ることを促進します。
OpenLedgerは「データ提供」から「モデルデプロイ」、さらには「呼び出し分配」までの全チェーンのクローズドループを提供しており、そのコアモジュールには以下が含まれます:
以上のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わせ可能な「エージェント経済インフラ」を構築し、AIのバリューチェーンのオンチェーン化を推進しています。
そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータと契約の実行環境を構築しました。
NEARのようなより基盤的で、データ主権を重視し、「AI Agents on BOS」アーキテクチャを持つ汎用AIチェーンに比べて、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力しています。モデルの開発と呼び出しをブロックチェーン上で追跡可能、組み合わせ可能、持続可能な価値の閉ループを実現することに努めています。これはWeb3の世界におけるモデルインセンティブの基盤インフラであり、HuggingFaceスタイルのモデルホスティング、Stripeスタイルの使用課金、Infuraスタイルのブロックチェーン上の組み合わせ可能なインターフェースを組み合わせて、「モデルは資産である」という実現への道を推進しています。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)
三、OpenLedger のコアコンポーネントと技術アーキテクチャ
3.1 モデルファクトリー、コード不要のモデルファクトリー
ModelFactoryはOpenLedgerエコシステムにおける大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactoryは純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールやAPI統合は不要です。ユーザーはOpenLedger上で完了したデータセットに基づいて、モデルを微調整できます。データの承認、モデルのトレーニング、デプロイメントの統合ワークフローを実現しており、そのコアプロセスには以下が含まれます:
Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価展開、RAGトレーサビリティを通じて、6つの主要モジュールを含み、安全で制御可能、リアルタイムインタラクション、持続可能なマネタイズを実現する統合モデルサービスプラットフォームを構築します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)
ModelFactory 現在サポートしている大規模言語モデルの機能概要は以下の通りです:
OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていませんが、その戦略は古くはなく、オンチェーンにデプロイされた現実の制約(推論コスト、RAG適合、LoRA互換性、EVM環境)に基づいた「実用優先」の構成がなされています。
Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ貢献者とモデル開発者の権利を確保しています。低い敷居、収益化可能性、そして組み合わせ可能性の利点があります。従来のモデル開発ツールと比較して:
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA、微調整モデルのオンチェーンアセット化
LoRA(Low-Rank Adaptation)は、新しいタスクを学習するために「低秩行列」を挿入することで、事前訓練された大規模モデルのパラメータを効率的に微調整する方法であり、元のモデルパラメータを変更することなく、トレーニングコストとストレージ要件を大幅に削減します。従来の大規模言語モデル(LLaMA、GPT-3など)は通常、数十億から千億のパラメータを持っています。特定のタスク(法律問答、医療相談など)に使用するには、微調整(fine-tuning)が必要です。LoRAの核心的な戦略は:「元の大モデルのパラメータを凍結し、新しく挿入されたパラメータ行列のみをトレーニングする。」であり、そのパラメータ効率、迅速なトレーニング、柔軟なデプロイメントは、現在のWeb3モデルのデプロイと組み合わせ呼び出しに最も適した主流の微調整方法です。
OpenLoRA は OpenLedger によって構築された、複数のモデル展開とリソース共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在の AI モデル展開において一般的な高コスト、低再利用、GPU リソースの無駄遣いなどの問題を解決し、「可支払い AI」(Payable AI)の実現を推進することです。
OpenLoRA システムアーキテクチャのコアコンポーネントは、モジュール設計に基づいており、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、効率的で低コストなマルチモデルの展開と呼び出し能力を実現します。