OpenLedger construye un ecosistema de incentivos de modelo de IA en cadena basado en OP Stack y EigenDA

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Uno, Introducción | La transición de la capa de modelo de Crypto AI

Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos al combustible (datos), el motor (modelo) y la energía (potencia de cálculo), todos ellos son imprescindibles. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, enfatizando la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a medida que entramos en 2025, el foco de la industria ha comenzado a elevarse hacia las capas de modelos y datos, marcando la transición de Crypto AI de la competencia por recursos básicos a la construcción en capas medias con mayor sostenibilidad y valor de aplicación.

Modelo General (LLM) vs Modelo Especializado (SLM)

Los modelos de lenguaje de gran escala tradicionales (LLM) dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que oscilan entre 70B y 500B, y el costo de entrenar uno a menudo alcanza varios millones de dólares. El SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero de un modelo base reutilizable, generalmente se basa en modelos de código abierto como LLaMA, Mistral, DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos de expertos con conocimientos en dominios específicos, lo que reduce significativamente los costos de entrenamiento y las barreras tecnológicas.

Es importante señalar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la arquitectura Agent, el enrutamiento dinámico del sistema de plugins, la inserción y extracción en caliente de módulos LoRA, y RAG (Generación Aumentada por Recuperación). Esta arquitectura conserva la amplia capacidad de cobertura de LLM, al tiempo que mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente modular altamente flexible.

El valor y los límites de Crypto AI en la capa de modelo

Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grande (LLM), y la razón principal es que

  • Barreras tecnológicas demasiado altas: La escala de datos, los recursos de cómputo y las capacidades de ingeniería necesarias para entrenar un Modelo Fundación son extremadamente grandes, y actualmente solo las grandes empresas tecnológicas de Estados Unidos y China tienen la capacidad correspondiente.
  • Limitaciones del ecosistema de código abierto: Aunque modelos básicos como LLaMA y Mixtral están disponibles como código abierto, la clave para impulsar realmente los avances en los modelos sigue estando concentrada en instituciones de investigación y sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en la cadena es limitado en la capa del modelo central.

Sin embargo, sobre los modelos básicos de código abierto, el proyecto Crypto AI aún puede lograr la extensión de valor mediante el ajuste fino de modelos de lenguaje especializados (SLM) y combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de industria de AI, se refleja en dos direcciones centrales:

  • Capa de verificación confiable: a través del registro en cadena de la ruta de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la capacidad de resistencia a la manipulación de las salidas de IA.
  • Mecanismo de incentivos: Utilizando el Token nativo, se incentiva la carga de datos, la llamada a modelos, la ejecución de agentes, entre otros comportamientos, para construir un ciclo positivo de entrenamiento y servicio de modelos.

Clasificación de tipos de modelos de IA y análisis de la aplicabilidad de la blockchain

Como se puede ver, los puntos de enfoque viables para los proyectos de Crypto AI de tipo modelo se concentran principalmente en la ligera afinación de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de la blockchain y el mecanismo de tokens, Crypto puede ofrecer un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la "capa de interfaz" de la IA.

La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se utilizan datos o modelos, transformando el comportamiento de la IA en un valor tokenizado medible y negociable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación de reglas y en la iteración, mejorando la estructura de gobernanza descentralizada.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Resumen del proyecto | La visión de la cadena AI de OpenLedger

OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado actual que se centra en los mecanismos de incentivo de datos y modelos. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de operación de IA justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener beneficios en cadena según sus contribuciones reales.

OpenLedger ofrece un ciclo cerrado completo que abarca desde «provisión de datos» hasta «despliegue de modelos» y «llamadas de reparto de beneficios», cuyos módulos centrales incluyen:

  • Modelo Factory: sin necesidad de programación, puedes utilizar LoRA para ajustar, entrenar y desplegar modelos personalizados basados en LLM de código abierto;
  • OpenLoRA: soporta la coexistencia de mil modelos, carga dinámica bajo demanda, lo que reduce significativamente los costos de implementación;
  • PoA (Prueba de Atribución): medir la contribución y distribuir recompensas a través del registro de llamadas en la cadena;
  • Datanets: redes de datos estructurados orientadas a escenarios verticales, construidas y validadas por la colaboración de la comunidad;
  • Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, llamable y pagable.

A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos combinables, promoviendo la on-chainización de la cadena de valor de la IA.

Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.

  • Construido sobre OP Stack: Basado en la pila de tecnología de Optimism, soporta ejecución de alta capacidad y bajos costos;
  • Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
  • Compatible con EVM: facilita a los desarrolladores implementar y expandir rápidamente basado en Solidity;
  • EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.

En comparación con cadenas de IA de propósito general como NEAR, que se centran más en la capa base y promueven la soberanía de datos junto con la arquitectura de "Agentes de IA en BOS", OpenLedger se enfoca más en construir cadenas de IA específicas dirigidas a la incentivación de datos y modelos, comprometida a hacer que el desarrollo y la invocación de modelos se realicen en la cadena con un ciclo de valor que sea rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando la gestión de modelos al estilo de HuggingFace, la facturación por uso al estilo de Stripe y las interfaces combinables en cadena al estilo de Infura, impulsando el camino hacia la realización de "modelos como activos".

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Tres, los componentes centrales y la arquitectura técnica de OpenLedger

3.1 Modelo de Fábrica, no se necesita código modelo de fábrica

ModelFactory es una plataforma de ajuste fino de un modelo de lenguaje de gran tamaño (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyo proceso central incluye:

  • Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
  • Selección y configuración del modelo: Soporta LLM principales (como LLaMA, Mistral), a través de una GUI para configurar hiperparámetros.
  • Ajuste ligero: motor LoRA / QLoRA integrado, muestra en tiempo real el progreso del entrenamiento.
  • Evaluación y despliegue de modelos: Herramientas de evaluación integradas, que soportan la exportación para despliegue o llamadas de compartición en el ecosistema.
  • Interfaz de verificación interactiva: Proporciona una interfaz de chat, que facilita la prueba directa de la capacidad de respuesta del modelo.
  • Generación de RAG: Respuestas con citas de origen, mejorando la confianza y la auditabilidad.

La arquitectura del sistema Model Factory incluye seis grandes módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino de modelos, la evaluación y el despliegue, así como el rastreo RAG, creando una plataforma de servicios de modelos integral que es segura y controlable, interactiva en tiempo real y capaz de monetización sostenible.

Informe de investigación profunda de OpenLedger: Construyendo una economía de agentes impulsada por datos y modelos combinables sobre la base de OP Stack + EigenDA

El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory apoya actualmente:

  • Serie LLaMA: el ecosistema más amplio, comunidad activa y un rendimiento general fuerte, es uno de los modelos básicos de código abierto más populares en la actualidad.
  • Mistral: arquitectura eficiente, excelente rendimiento de inferencia, adecuada para escenarios con despliegue flexible y recursos limitados.
  • Qwen: Capacidad integral fuerte, adecuado como primera opción para desarrolladores nacionales.
  • ChatGLM: El efecto de conversación en chino es destacado, adecuado para atención al cliente en nichos y escenarios de localización.
  • Deepseek: se desempeña de manera superior en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
  • Gemma: Modelo ligero lanzado por Google, con una estructura clara, fácil de usar y experimentar rápidamente.
  • Falcon: Solía ser un referente de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
  • BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura de idiomas.
  • GPT-2: modelo clásico temprano, adecuado solo para fines de enseñanza y verificación, no se recomienda su uso en implementación real.

Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones de implementación en cadena (costo de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración «prioridad práctica».

Model Factory como una cadena de herramientas sin código, todos los modelos tienen un mecanismo de prueba de contribución incorporado, que asegura los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas de baja barrera de entrada, monetización y combinabilidad, en comparación con las herramientas tradicionales de desarrollo de modelos:

  • Para desarrolladores: proporciona un camino completo para la incubación de modelos, distribución e ingresos;
  • Para la plataforma: formar un ecosistema de circulación y combinación de activos modelo;
  • Para los aplicadores: se pueden combinar modelos o Agentes como si se llamara a una API.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, la tokenización de activos en cadena del modelo ajustado.

LoRA (Adaptación de Bajo Rango) es un método de ajuste fino de parámetros eficiente, que aprende nuevas tareas al insertar "matrices de bajo rango" en modelos grandes preentrenados, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas y respuestas legales, consultas médicas), es necesario realizar un ajuste fino. La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia en parámetros, velocidad de entrenamiento y flexibilidad en el despliegue la convierten en el método de ajuste fino más adecuado para el despliegue y la invocación combinada de modelos Web3 en la actualidad.

OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos GPU, promoviendo la ejecución de la "IA pagable" (Payable AI).

Componentes centrales de la arquitectura del sistema OpenLoRA, basados en un diseño modular, que cubren el almacenamiento de modelos, la ejecución de inferencias, el enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:

  • Módulo de almacenamiento LoRA Adapter (Almacenamiento de adaptadores LoRA): El LoRA adapter ajustado se aloja en OpenLedger, permitiendo la carga bajo demanda, evitando la precarga de todos los modelos en la memoria de video, ahorrando recursos.
  • Alojamiento de modelos y capa de fusión dinámica (Model Hosting & Adapter Merging Layer)
OP-8.28%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 10
  • Republicar
  • Compartir
Comentar
0/400
GasFeeWhisperervip
· 08-19 18:34
¿Quién más está trabajando en la pista de GPU?
Ver originalesResponder0
MrDecodervip
· 08-18 15:49
Otra vez vienen a tomar a la gente por tonta.
Ver originalesResponder0
gas_fee_therapistvip
· 08-16 20:00
Ya decimos que la especulación sobre GPUs ha pasado de moda.
Ver originalesResponder0
CryptoNomicsvip
· 08-16 19:57
*suspiro* otra narrativa de GPT que carece de análisis de equilibrio estocástico
Ver originalesResponder0
FlashLoanLordvip
· 08-16 19:47
Ah, esto no es un juego de Potencia computacional.
Ver originalesResponder0
HodlVeteranvip
· 08-16 19:44
Otra ola de narrativas de IA ha llegado, el conductor experimentado aconseja a todos abrocharse el cinturón de seguridad.
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)