OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable.
I. Introduction | La transition du niveau de modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments centraux de l'infrastructure de l'IA, comparables au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul) qui sont tous indispensables. Comme pour l'évolution de l'infrastructure de l'industrie de l'IA traditionnelle, le domaine de la Crypto IA a également traversé des étapes similaires. Au début de 2024, le marché a été dominé par des projets de GPU décentralisés, mettant généralement en avant une logique de croissance extensive axée sur la « puissance de calcul ». Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les modèles et la couche de données, marquant la transition de la Crypto IA d'une concurrence pour des ressources de base vers une construction intermédiaire plus durable et ayant une valeur d'application.
Modèles de grande taille (LLM) vs Modèles spécialisés (SLM)
Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec des tailles de paramètres allant de 70B à 500B, et le coût d'une seule formation peut atteindre plusieurs millions de dollars. En revanche, le SLM (Specialized Language Model) est un paradigme de fine-tuning léger basé sur un modèle de base réutilisable, généralement fondé sur des modèles open source tels que LLaMA, Mistral, DeepSeek, combiné avec un petit nombre de données professionnelles de haute qualité et des technologies comme LoRA, permettant de construire rapidement des modèles d'experts dotés de connaissances spécifiques, réduisant ainsi considérablement les coûts de formation et les barrières techniques.
Il est à noter que SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en coopération avec LLM via des appels d'architecture Agent, un système de plugins pour le routage dynamique, le module LoRA pour le branchement à chaud, et RAG (génération augmentée par la recherche). Cette architecture préserve la capacité de large couverture de LLM tout en renforçant les performances professionnelles grâce aux modules de réglage fin, formant un système intelligent combiné hautement flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets d'IA crypto sont essentiellement difficiles à améliorer directement les capacités fondamentales des modèles de langage à grande échelle (LLM), la raison principale étant que
Barrière technique trop élevée : l'échelle des données, les ressources de calcul et les capacités d'ingénierie nécessaires pour former un modèle fondamental sont extrêmement vastes, actuellement seuls des géants technologiques tels que les États-Unis et la Chine disposent des capacités correspondantes.
Limites de l'écosystème open source : Bien que des modèles de base comme LLaMA et Mixtral soient open source, la clé pour faire progresser réellement les modèles reste concentrée dans les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau du modèle central est limité.
Cependant, sur la base des modèles fondamentaux open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation du Web3. En tant que « couche d'interface périphérique » de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions clés :
Couche de vérification fiable : enregistrement sur la chaîne des chemins de génération de modèles, des contributions de données et de l'utilisation, renforçant ainsi la traçabilité et la résistance à la falsification des sorties de l'IA.
Mécanisme d'incitation : À l'aide du Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents (Agent), etc., construisant un cycle positif pour l'entraînement et le service des modèles.
Classification des types de modèles d'IA et analyse de l'applicabilité de la blockchain
Il en ressort que les points d'ancrage viables des projets de type Crypto AI se concentrent principalement sur l'optimisation légère des petits SLM, l'intégration et la validation des données on-chain dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain avec le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée de la "couche d'interface" de l'IA.
La chaîne de blocs AI basée sur des données et des modèles peut enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle, améliorant ainsi considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. En même temps, grâce au mécanisme des contrats intelligents, la distribution de récompenses est automatiquement déclenchée lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en une valeur tokenisée mesurable et négociable, construisant ainsi un système d'incitation durable. De plus, les utilisateurs de la communauté peuvent également évaluer la performance des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets de blockchain AI sur le marché actuel qui se concentre sur les incitations liées aux données et aux modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution AI équitable, transparent et composable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications AI à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.
OpenLedger fournit une chaîne complète de boucle fermée allant de « fourniture de données » à « déploiement de modèles » puis à « appel de partage des profits », ses modules principaux comprennent :
Model Factory : Pas besoin de programmation, utilisez LoRA pour un ajustement fin et un entraînement de modèles personnalisés basés sur LLM open source ;
OpenLoRA : prend en charge la coexistence de milliers de modèles, charge dynamiquement selon les besoins, réduisant considérablement les coûts de déploiement ;
PoA (Proof of Attribution) : mesure de contribution et répartition des récompenses réalisée par l'enregistrement des appels sur la chaîne ;
Datanets : Réseau de données structurées orienté vers des scénarios verticaux, construit et validé par la collaboration de la communauté ;
Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles en chaîne, combinable, appelable et payable.
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » basée sur des données et modèle-composable, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et dans l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats hautes performances, à faible coût et vérifiable pour les modèles d'IA.
Construire sur la pile OP : Basé sur la pile technologique Optimism, prend en charge une exécution à haut débit et à faible coût ;
Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
Compatibilité EVM : Permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity.
EigenDA offre un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.
Comparé à des chaînes AI générales comme NEAR, qui sont plus axées sur les couches sous-jacentes et mettent l'accent sur la souveraineté des données avec l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI spécialisées axées sur l'incitation des données et des modèles, s'efforçant de rendre le développement et l'appel des modèles sur la chaîne traçables, combinables et durables. C'est l'infrastructure d'incitation des modèles dans le monde Web3, combinant l'hébergement de modèles à la manière de HuggingFace, la facturation à l'utilisation à la manière de Stripe et des interfaces combinables sur la chaîne à la manière d'Infura, pour promouvoir le chemin vers la réalisation de « modèles en tant qu'actifs ».
Trois, les composants clés et l'architecture technique d'OpenLedger
Usine de Modèle 3.1, usine de modèles sans code
ModelFactory est une plateforme de micro-ajustement de modèle de langage (LLM) à grande échelle dans l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory offre une interface entièrement graphique, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer un micro-ajustement du modèle basé sur des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela permet de réaliser un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont le processus central comprend :
Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données se connectent automatiquement à l'interface d'entraînement du modèle.
Sélection et configuration du modèle : prend en charge les LLM principaux (comme LLaMA, Mistral), configuration des hyperparamètres via l'interface graphique.
Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
Évaluation et déploiement des modèles : Outils d'évaluation intégrés, support pour l'exportation de déploiement ou l'appel de partage écologique.
Interface de vérification interactive : Fournit une interface de type chat, facilitant les tests directs des capacités de question-réponse du modèle.
Génération de traçabilité RAG : Réponses avec citations de sources, renforçant la confiance et l'auditabilité.
L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant une plateforme de service de modèle intégrée, sécurisée, contrôlable, interactive en temps réel et durablement monétisable.
Le tableau ci-dessous présente un aperçu des capacités des grands modèles de langage actuellement pris en charge par ModelFactory :
LLaMA série : la plus large écosystème, communauté active, performance générale forte, est l'un des modèles de base open source les plus courants actuellement.
Mistral : architecture efficace, performances d'inférence exceptionnelles, adapté aux scénarios de déploiement flexibles et aux ressources limitées.
Qwen : capacité globale forte, idéal pour les développeurs nationaux.
ChatGLM : l'effet de conversation en chinois est remarquable, idéal pour le service client de niche et les scénarios de localisation.
Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
Falcon : Autrefois une référence de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
BLOOM : un support multilingue fort, mais des performances d'inférence faibles, adapté à la recherche sur la couverture linguistique.
GPT-2 : modèle classique précoce, adapté uniquement à des fins d'enseignement et de validation, son utilisation en déploiement réel n'est pas recommandée.
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas démodée, mais plutôt une configuration « axée sur l'utilité » basée sur les contraintes réelles de déploiement en chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory, en tant qu'outil sans code, intègre un mécanisme de preuve de contribution pour tous les modèles, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages tels que des barrières d'entrée faibles, la possibilité de monétisation et de combinaison, par rapport aux outils de développement de modèles traditionnels :
Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modélisés ;
Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme si vous appeliez une API.
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode de réglage fin efficace des paramètres, qui apprend de nouvelles tâches en insérant des « matrices de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) ont généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser dans des tâches spécifiques (comme les questions-réponses juridiques, les consultations médicales), un réglage fin est nécessaire. La stratégie centrale de LoRA est : « geler les paramètres du grand modèle d'origine, et ne former que la nouvelle matrice de paramètres insérée. ». Son efficacité en termes de paramètres, sa rapidité d'entraînement et sa flexibilité de déploiement en font la méthode de réglage fin la plus adaptée au déploiement et à l'appel combiné de modèles Web3.
OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécifiquement destiné au déploiement multi-modèles et au partage des ressources. Son objectif principal est de résoudre les problèmes courants liés au déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, afin de promouvoir l'exécution de l'« IA payante ».
OpenLoRA architecture core components, based on modular design, covering key aspects such as model storage, inference execution, request routing, etc., to achieve efficient and low-cost multi-model deployment and invocation capabilities.
Module de stockage des adaptateurs LoRA (LoRA Adapters Storage) : les adaptateurs LoRA affinés sont hébergés sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire vidéo, économisant ainsi des ressources.
Hébergement de modèle et couche de fusion dynamique (Model Hosting & Adapter Merging Layer)
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
16 J'aime
Récompense
16
5
Reposter
Partager
Commentaire
0/400
MrDecoder
· Il y a 3h
Encore une fois, se faire prendre pour des cons.
Voir l'originalRépondre0
gas_fee_therapist
· 08-16 20:00
On peut dire que la spéculation sur les GPU est dépassée.
Voir l'originalRépondre0
CryptoNomics
· 08-16 19:57
*soupir* encore une autre narration de GPT manquant d'analyse de l'équilibre stochastique
Voir l'originalRépondre0
FlashLoanLord
· 08-16 19:47
Ah, c'est un jeu de puissance de calcul, n'est-ce pas ?
Voir l'originalRépondre0
HodlVeteran
· 08-16 19:44
Une nouvelle vague de narration AI arrive, les conducteurs expérimentés conseillent à tout le monde de boucler leur ceinture.
OpenLedger construit un écosystème d'incitation de modèle AI off-chain basé sur OP Stack et EigenDA
OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable.
I. Introduction | La transition du niveau de modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments centraux de l'infrastructure de l'IA, comparables au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul) qui sont tous indispensables. Comme pour l'évolution de l'infrastructure de l'industrie de l'IA traditionnelle, le domaine de la Crypto IA a également traversé des étapes similaires. Au début de 2024, le marché a été dominé par des projets de GPU décentralisés, mettant généralement en avant une logique de croissance extensive axée sur la « puissance de calcul ». Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les modèles et la couche de données, marquant la transition de la Crypto IA d'une concurrence pour des ressources de base vers une construction intermédiaire plus durable et ayant une valeur d'application.
Modèles de grande taille (LLM) vs Modèles spécialisés (SLM)
Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec des tailles de paramètres allant de 70B à 500B, et le coût d'une seule formation peut atteindre plusieurs millions de dollars. En revanche, le SLM (Specialized Language Model) est un paradigme de fine-tuning léger basé sur un modèle de base réutilisable, généralement fondé sur des modèles open source tels que LLaMA, Mistral, DeepSeek, combiné avec un petit nombre de données professionnelles de haute qualité et des technologies comme LoRA, permettant de construire rapidement des modèles d'experts dotés de connaissances spécifiques, réduisant ainsi considérablement les coûts de formation et les barrières techniques.
Il est à noter que SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en coopération avec LLM via des appels d'architecture Agent, un système de plugins pour le routage dynamique, le module LoRA pour le branchement à chaud, et RAG (génération augmentée par la recherche). Cette architecture préserve la capacité de large couverture de LLM tout en renforçant les performances professionnelles grâce aux modules de réglage fin, formant un système intelligent combiné hautement flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets d'IA crypto sont essentiellement difficiles à améliorer directement les capacités fondamentales des modèles de langage à grande échelle (LLM), la raison principale étant que
Cependant, sur la base des modèles fondamentaux open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation du Web3. En tant que « couche d'interface périphérique » de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions clés :
Classification des types de modèles d'IA et analyse de l'applicabilité de la blockchain
Il en ressort que les points d'ancrage viables des projets de type Crypto AI se concentrent principalement sur l'optimisation légère des petits SLM, l'intégration et la validation des données on-chain dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain avec le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée de la "couche d'interface" de l'IA.
La chaîne de blocs AI basée sur des données et des modèles peut enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle, améliorant ainsi considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. En même temps, grâce au mécanisme des contrats intelligents, la distribution de récompenses est automatiquement déclenchée lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en une valeur tokenisée mesurable et négociable, construisant ainsi un système d'incitation durable. De plus, les utilisateurs de la communauté peuvent également évaluer la performance des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets de blockchain AI sur le marché actuel qui se concentre sur les incitations liées aux données et aux modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution AI équitable, transparent et composable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications AI à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.
OpenLedger fournit une chaîne complète de boucle fermée allant de « fourniture de données » à « déploiement de modèles » puis à « appel de partage des profits », ses modules principaux comprennent :
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » basée sur des données et modèle-composable, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et dans l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats hautes performances, à faible coût et vérifiable pour les modèles d'IA.
Comparé à des chaînes AI générales comme NEAR, qui sont plus axées sur les couches sous-jacentes et mettent l'accent sur la souveraineté des données avec l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI spécialisées axées sur l'incitation des données et des modèles, s'efforçant de rendre le développement et l'appel des modèles sur la chaîne traçables, combinables et durables. C'est l'infrastructure d'incitation des modèles dans le monde Web3, combinant l'hébergement de modèles à la manière de HuggingFace, la facturation à l'utilisation à la manière de Stripe et des interfaces combinables sur la chaîne à la manière d'Infura, pour promouvoir le chemin vers la réalisation de « modèles en tant qu'actifs ».
Trois, les composants clés et l'architecture technique d'OpenLedger
Usine de Modèle 3.1, usine de modèles sans code
ModelFactory est une plateforme de micro-ajustement de modèle de langage (LLM) à grande échelle dans l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory offre une interface entièrement graphique, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer un micro-ajustement du modèle basé sur des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela permet de réaliser un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont le processus central comprend :
L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant une plateforme de service de modèle intégrée, sécurisée, contrôlable, interactive en temps réel et durablement monétisable.
Le tableau ci-dessous présente un aperçu des capacités des grands modèles de langage actuellement pris en charge par ModelFactory :
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas démodée, mais plutôt une configuration « axée sur l'utilité » basée sur les contraintes réelles de déploiement en chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory, en tant qu'outil sans code, intègre un mécanisme de preuve de contribution pour tous les modèles, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages tels que des barrières d'entrée faibles, la possibilité de monétisation et de combinaison, par rapport aux outils de développement de modèles traditionnels :
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode de réglage fin efficace des paramètres, qui apprend de nouvelles tâches en insérant des « matrices de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) ont généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser dans des tâches spécifiques (comme les questions-réponses juridiques, les consultations médicales), un réglage fin est nécessaire. La stratégie centrale de LoRA est : « geler les paramètres du grand modèle d'origine, et ne former que la nouvelle matrice de paramètres insérée. ». Son efficacité en termes de paramètres, sa rapidité d'entraînement et sa flexibilité de déploiement en font la méthode de réglage fin la plus adaptée au déploiement et à l'appel combiné de modèles Web3.
OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécifiquement destiné au déploiement multi-modèles et au partage des ressources. Son objectif principal est de résoudre les problèmes courants liés au déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, afin de promouvoir l'exécution de l'« IA payante ».
OpenLoRA architecture core components, based on modular design, covering key aspects such as model storage, inference execution, request routing, etc., to achieve efficient and low-cost multi-model deployment and invocation capabilities.