OpenLedger constrói um ecossistema de incentivos de modelo de IA na cadeia baseado na OP Stack e EigenDA

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introdução | A transição do modelo da Crypto AI

Dados, modelos e poder computacional são os três principais elementos da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), todos essenciais. Assim como na trajetória de evolução da infraestrutura da indústria de IA tradicional, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competir em poder computacional". No entanto, ao entrar em 2025, a atenção da indústria começou a se deslocar para os níveis de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos básicos para uma construção de médio nível mais sustentável e de valor aplicado.

Modelo Grande Geral (LLM) vs Modelo Especializado (SLM)

Os modelos de linguagem de grande escala (LLM) tradicionais dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que utiliza modelos de base reutilizáveis, geralmente se baseia em modelos de código aberto como LLaMA, Mistral, DeepSeek, combinando uma pequena quantidade de dados profissionais de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e as barreiras técnicas.

É importante notar que o SLM não será integrado no peso do LLM, mas sim operará em colaboração com o LLM através de chamadas na arquitetura Agent, roteamento dinâmico do sistema de plugins, hot swapping de módulos LoRA e RAG (Geração Aumentada por Recuperação). Esta arquitetura mantém a ampla capacidade de cobertura do LLM, ao mesmo tempo que melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente combinatório altamente flexível.

O valor e os limites da Crypto AI na camada de modelo

Os projetos de Crypto AI, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos Modelos de Linguagem de Grande Escala (LLM), e a razão principal é que

  • Barreiras técnicas demasiado elevadas: a escala de dados, os recursos computacionais e a capacidade de engenharia necessários para treinar um Modelo Base são extremamente vastos, e atualmente apenas gigantes tecnológicos como os EUA e a China possuem essa capacidade.
  • Limitações do ecossistema de código aberto: Embora modelos básicos mainstream como LLaMA e Mixtral tenham sido open source, a verdadeira chave para a quebra de modelos ainda se concentra em instituições de pesquisa e sistemas de engenharia fechados, e o espaço de participação de projetos em blockchain no nível do modelo central é limitado.

No entanto, em cima de modelos de base de código aberto, o projeto Crypto AI ainda pode estender seu valor através da afinação de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como a "camada de interface periférica" da cadeia industrial de IA, isso se manifesta em duas direções centrais:

  • Camada de Verificação Confiável: através do registo em cadeia do caminho de geração do modelo, contribuição de dados e utilização, aumenta a rastreabilidade e a capacidade de resistência à manipulação das saídas de IA.
  • Mecanismo de incentivo: Através do Token nativo, utilizado para incentivar o upload de dados, chamadas de modelo, execução de agentes (Agent), entre outras ações, construindo um ciclo positivo de treinamento e serviços de modelos.

Classificação de tipos de modelos de IA e análise de aplicabilidade em blockchain

Assim, pode-se ver que os pontos de queda viáveis para projetos de Crypto AI do tipo modelo estão principalmente concentrados na otimização leve de SLMs pequenos, na integração e verificação de dados on-chain da arquitetura RAG, e na implantação local e incentivo de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado na "camada de interface" da IA.

A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, melhorando significativamente a confiabilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada sempre que dados ou modelos são utilizados, transformando o comportamento da IA em um valor tokenizado mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo, participar na formulação e iteração de regras através de votação de tokens, aprimorando a estrutura de governança descentralizada.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Visão geral do projeto | A visão da cadeia AI da OpenLedger

OpenLedger é um dos poucos projetos de blockchain de IA no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de IA justo, transparente e combinável, incentivando colaboradores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborarem na mesma plataforma e a obterem ganhos on-chain com base nas contribuições reais.

A OpenLedger oferece um ciclo fechado completo que vai desde a "fornecimento de dados" até a "implantação de modelos" e, em seguida, "chamadas de distribuição de lucros", cujos módulos principais incluem:

  • Fábrica de Modelos: sem necessidade de programação, é possível usar o LoRA para ajuste fino, treinamento e implantação de modelos personalizados com base em LLM de código aberto;
  • OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico sob demanda, reduzindo significativamente os custos de implementação;
  • PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através do registro de chamadas na blockchain;
  • Datanets: Rede de dados estruturados voltada para cenários verticais, construída e validada pela colaboração da comunidade;
  • Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos on-chain que é combinável, chamável e pagável.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes" orientada por dados e com modelos combináveis, promovendo a on-chain do valor da cadeia de IA.

E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.

  • Construído com base na OP Stack: com base na pilha de tecnologia Optimism, suporta alta profundidade e execução a baixo custo;
  • Liquidar na rede principal do Ethereum: Garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: facilita o desenvolvimento para que os desenvolvedores possam implementar e expandir rapidamente com base em Solidity;
  • EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Comparado a cadeias de IA genéricas como NEAR, que são mais focadas em nível de base e promovem a soberania de dados e a arquitetura "AI Agents on BOS", o OpenLedger se concentra mais na construção de cadeias de IA dedicadas a incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos na cadeia um ciclo de valor rastreável, combinável e sustentável. É a infraestrutura básica de incentivos de modelos no mundo Web3, combinando hospedagem de modelos no estilo HuggingFace, cobrança de uso no estilo Stripe e interfaces combináveis na cadeia no estilo Infura, promovendo o caminho para a realização de "modelos como ativos".

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, os componentes principais e a arquitetura técnica do OpenLedger

Fábrica de Modelos 3.1, fábrica de modelos sem código

ModelFactory é uma plataforma de ajuste fino de um grande modelo de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica puramente operacional, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados que foram autorizados e verificados na OpenLedger. Foi implementado um fluxo de trabalho integrado para autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:

  • Controle de acesso a dados: O usuário submete um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados na interface de treinamento do modelo.
  • Seleção e configuração do modelo: Suporta LLMs populares (como LLaMA, Mistral), configurando hiperparâmetros através da GUI.
  • Ajuste leve: Motor LoRA / QLoRA embutido, exibe o progresso do treinamento em tempo real.
  • Avaliação e implementação de modelos: Ferramentas de avaliação integradas, suportam exportação para implementação ou chamadas de compartilhamento ecológico.
  • Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de perguntas e respostas do modelo.
  • Geração de RAG com rastreabilidade: Respostas com citações de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação de implantação e rastreamento RAG, criando uma plataforma de serviços de modelo integrada que é segura, controlável, de interação em tempo real e sustentável em termos de monetização.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

A tabela a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:

  • Série LLaMA: ecossistema mais amplo, comunidade ativa, desempenho geral forte, é um dos modelos básicos de código aberto mais populares atualmente.
  • Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários com implantação flexível e recursos limitados.
  • Qwen: Capacidade abrangente, ideal para desenvolvedores domésticos.
  • ChatGLM: o efeito de diálogo em chinês é destacado, adequado para atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: apresenta desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: um modelo leve lançado pelo Google, com estrutura clara, fácil de começar a usar e experimentar.
  • Falcon: Foi uma referência de desempenho, adequado para pesquisas básicas ou testes comparativos, mas a atividade da comunidade diminuiu.
  • BLOOM: Suporte multilingue forte, mas desempenho de inferência fraco, adequado para pesquisas de cobertura linguística.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso em produção.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições da realidade de implementação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultaram em uma configuração "prática em primeiro lugar".

Model Factory como uma ferramenta de código zero, todos os modelos possuem um mecanismo de prova de contribuição embutido, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, apresentando vantagens de baixo custo, possibilidade de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita do modelo;
  • Para a plataforma: formar a circulação de ativos de modelo e um ecossistema de combinação;
  • Para os utilizadores: podem combinar modelos ou Agentes da mesma forma que chamam a API.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a tokenização de ativos em cadeia do modelo de ajuste fino

LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas ao inserir "matrizes de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para usá-los em tarefas específicas (como perguntas e respostas legais, consultas médicas), é necessário realizar o ajuste fino (fine-tuning). A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, sendo o método de ajuste fino mais apropriado atualmente para a implantação e chamada combinada de modelos Web3.

OpenLoRA é um quadro de inferência leve construído pela OpenLedger, projetado especialmente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo principal é resolver os problemas comuns de alto custo, baixa reutilização e desperdício de recursos de GPU na implantação de modelos de IA atuais, promovendo a execução de "IA Pagável".

OpenLoRA sistema de arquitetura componentes principais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outras etapas críticas, realizando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e a baixo custo:

  • Módulo de Armazenamento de Adaptadores LoRA (LoRA Adapters Storage): O adaptador LoRA ajustado é hospedado no OpenLedger, permitindo o carregamento sob demanda, evitando o pré-carregamento de todos os modelos na memória gráfica, economizando recursos.
  • Modelagem de Alojamento e Camada de Fusão Dinâmica (Model Hosting & Adapter Merging Layer)
OP-5.01%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 10
  • Repostar
  • Compartilhar
Comentário
0/400
GasFeeWhisperervip
· 08-19 18:34
Quem ainda está a usar GPU para correr?
Ver originalResponder0
MrDecodervip
· 08-18 15:49
Outra vez a fazer as pessoas de parvas, hein?
Ver originalResponder0
gas_fee_therapistvip
· 08-16 20:00
Vamos dizer que a especulação em torno das GPUs já passou.
Ver originalResponder0
CryptoNomicsvip
· 08-16 19:57
*suspiro* mais uma narrativa do GPT sem análise de equilíbrio estocástico
Ver originalResponder0
FlashLoanLordvip
· 08-16 19:47
Ah, isto não é apenas um jogo de poder de computação?
Ver originalResponder0
HodlVeteranvip
· 08-16 19:44
Mais uma onda de narrativa de IA está a chegar, o motorista experiente aconselha a todos a apertar os cintos de segurança.
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)