Подробный исследовательский отчет по OpenLedger: Построение управляемой данными и компонуемой агентской экономикой на основе OP Stack+EigenDA
Один. Введение | Переход модели Crypto AI
Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модель) и энергии (вычислительная мощность) – каждый из них необходим. Подобно эволюционному пути инфраструктуры традиционной индустрии ИИ, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок был временно доминирован децентрализованными GPU проектами, которые в основном подчеркивали логику грубого роста «конкуренции вычислительной мощности». Однако после 2025 года внимание отрасли постепенно сместилось на уровень моделей и данных, что знаменует переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и ценному применению на среднем уровне.
Универсальная большая модель (LLM) против специализированной модели (SLM)
Традиционные крупные языковые модели (LLM) сильно зависят от масштабных наборов данных и сложной распределенной архитектуры, размер параметров составляет от 70B до 500B, а стоимость одной тренировки часто достигает миллионов долларов. SLM (Специализированная языковая модель) представляет собой легковесную парадигму тонкой настройки многоразовой базовой модели, которая обычно основана на открытых моделях, таких как LLaMA, Mistral, DeepSeek, в сочетании с небольшим объемом качественных специализированных данных и технологиями LoRA, что позволяет быстро создавать экспертные модели с определенными областными знаниями, значительно снижая затраты на обучение и технические барьеры.
Следует отметить, что SLM не будет интегрирован в веса LLM, а будет взаимодействовать с LLM через архитектуру Agent, динамическую маршрутизацию через систему плагинов, горячую замену модулей LoRA и RAG (усиление генерации с помощью поиска). Эта архитектура сохраняет широкие возможности LLM и одновременно усиливает профессиональные показатели за счет модуля тонкой настройки, формируя высоко гибкую комбинированную интеллектуальную систему.
Крипто ИИ в модели ценности и границы
Крипто AI проекты по сути сложно напрямую повысить основные способности больших языковых моделей (LLM), основной причиной является
Технический порог слишком высок: масштаб данных, вычислительных ресурсов и инженерных возможностей, необходимых для обучения Фундаментальной Модели, чрезвычайно велик, в настоящее время только такие технологические гиганты, как США и Китай, обладают соответствующими возможностями.
Ограничения открытой экосистемы: хотя такие основные модели, как LLaMA и Mixtral, уже открыты, ключевым фактором, способствующим прорыву моделей, по-прежнему остаются научные учреждения и закрытые инженерные системы, а участие цепочечных проектов на уровне основных моделей ограничено.
Однако, на основе открытых моделей, проекты Crypto AI могут все же осуществлять расширение ценности через тонкую настройку специализированных языковых моделей (SLM) и сочетание с верифицируемостью и механизмами стимулов Web3. В качестве «периферийного интерфейсного слоя» AI цепочки поставок это проявляется в двух основных направлениях:
Достоверный уровень проверки: через цепочку записей о модели, генерирующей пути, данных вкладов и использования, усиливается возможность отслеживания и устойчивость к подделкам AI-выхода.
Механизм стимулов: с помощью родного токена для стимулирования таких действий, как загрузка данных, вызов модели, выполнение агентов, создается положительный цикл обучения модели и обслуживания.
Классификация типов AI моделей и анализ применимости в блокчейне
Таким образом, можно увидеть, что жизнеспособные точки приложения моделей класса Crypto AI в основном сосредоточены на легковесной настройке малых SLM, интеграции и верификации данных на блокчейне с архитектурой RAG, а также на локальном развертывании и стимулировании Edge моделей. В сочетании с проверяемостью блокчейна и токеномикой, Crypto может предоставить уникальную ценность для таких сцен с низкими и средними ресурсами, создавая дифференцированную ценность «интерфейсного слоя» AI.
Блокчейн AI цепь на основе данных и моделей может обеспечить четкую, неизменяемую запись источников вклада каждой данные и модели, значительно повышая доверие к данным и отслеживаемость обучения моделей. В то же время, с помощью механизма смарт-контрактов автоматически инициируется распределение вознаграждений при вызове данных или моделей, превращая действия AI в измеримую, торгуемую токенизированную ценность и создавая устойчивую систему стимулов. Кроме того, пользователи сообщества также могут оценивать производительность моделей, участвовать в разработке правил и итераций через голосование токенами, улучшая архитектуру децентрализованного управления.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, Обзор проекта | Видение AI цепи OpenLedger
OpenLedger является одним из немногих проектов блокчейн ИИ на рынке, сосредоточенным на механизмах стимулирования данных и моделей. Он первым предложил концепцию «Payable AI», направленную на создание справедливой, прозрачной и комбинируемой среды работы ИИ, стимулируя вкладчиков данных, разработчиков моделей и строителей ИИ-приложений к сотрудничеству на одной платформе и получению дохода на блокчейне в зависимости от их реального вклада.
OpenLedger предоставляет полный замкнутый цикл от «предоставления данных» до «развертывания модели» и «вызова распределения прибыли», его основные модули включают:
Модельная фабрика: не требует программирования, можно использовать LoRA для дообучения и развертывания настраиваемых моделей на основе открытого LLM;
OpenLoRA: поддержка совместного использования тысяч моделей, динамическая загрузка по мере необходимости, значительно снижает затраты на развертывание;
PoA (Доказательство Атрибуции): измерение вклада и распределение вознаграждений через записи вызовов в блокчейне;
Datanets: структурированная сеть данных, ориентированная на вертикальные сценарии, построенная и проверенная сообществом;
Платформа предложений моделей (Model Proposal Platform): комбинируемый, вызываемый и платёжный рынок моделей на блокчейне.
С помощью вышеуказанных модулей OpenLedger создал «инфраструктуру экономического агентства», основанную на данных и комбинированных моделях, способствуя ончейн-интеграции ценностной цепочки ИИ.
А в применении технологии блокчейн OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, недорогую и проверяемую среду для выполнения данных и контрактов для AI моделей.
Построено на OP Stack: основано на технологии Optimism, поддерживает высокую пропускную способность и низкие затраты на выполнение;
Расчет в основной сети Ethereum: обеспечение безопасности транзакций и целостности активов;
EVM совместимость: удобство для разработчиков быстрого развертывания и расширения на основе Solidity;
EigenDA предоставляет поддержку доступности данных: значительно снижает затраты на хранение, обеспечивает проверяемость данных.
В отличие от таких более низкоуровневых блокчейнов, как NEAR, которые ориентированы на суверенитет данных и архитектуру «AI Agents on BOS», OpenLedger больше сосредоточен на создании специализированных блокчейнов для AI, ориентированных на данные и модели. Он стремится обеспечить возможность разработки и вызова моделей в цепочке с достижением прослеживаемого, комбинируемого и устойчивого замкнутого цикла ценности. Это инфраструктура для моделирования и стимулов в мире Web3, объединяющая хостинг моделей в стиле HuggingFace, биллинг за использование в стиле Stripe и комбинируемые интерфейсы в стиле Infura, способствующие реализации концепции «модель как актив».
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три. Основные компоненты и технологическая архитектура OpenLedger
3.1 Модельный завод, не требуется кодовая модель
ModelFactory является крупной платформой для дообучения языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков дообучения, ModelFactory предлагает полностью графический интерфейс, не требуя командной строки или интеграции API. Пользователи могут дообучать модели на основе данных, прошедших авторизацию и проверку на OpenLedger. Реализован интегрированный рабочий процесс, включающий авторизацию данных, обучение модели и развертывание, основной процесс включает в себя:
Контроль доступа к данным: Пользователь подает запрос на данные, поставщик проверяет и одобряет, данные автоматически подключаются к интерфейсу обучения модели.
Выбор и настройка модели: поддержка основных LLM (таких как LLaMA, Mistral), настройка гиперпараметров через GUI.
Легкая настройка: встроенный движок LoRA / QLoRA, показывающий прогресс обучения в реальном времени.
Оценка и развертывание моделей: встроенные инструменты оценки, поддержка экспорта развертывания или совместного использования в экосистеме.
Интерфейс взаимодействия для верификации: предоставляет чат-интерфейс, удобный для непосредственного тестирования способностей модели к вопросам и ответам.
Генерация RAG-трассировки: Ответы с указанием источника, повышающие доверие и аудируемость.
Архитектура системы Model Factory включает шесть основных модулей, охватывающих аутентификацию личности, права доступа к данным, тонкую настройку модели, оценку и развертывание, а также RAG трассировку, создавая безопасную и контролируемую, интерактивную в реальном времени и устойчивую к монетизации интегрированную платформу сервисов моделей.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
Модельный завод в настоящее время поддерживает следующие возможности больших языковых моделей:
Серия LLaMA: самая широкая экосистема, активное сообщество, высокая универсальная производительность, является одной из самых популярных открытых базовых моделей на данный момент.
Mistral: Архитектура эффективная, производительность вывода отличная, подходит для развертывания в гибких условиях с ограниченными ресурсами.
Qwen: Комплексные возможности, подходит для выбора отечественными разработчиками.
ChatGLM: Выдающиеся результаты диалогов на китайском языке, подходит для специализированных служб поддержки и локализованных сценариев.
Deepseek:Проявляет превосходство в генерации кода и математическом выводе, подходит для инструментов вспомогательной разработки.
Gemma: Легкая модель, выпущенная Google, с ясной структурой, легко осваивается и подходит для быстрых экспериментов.
Falcon:Ранее был эталоном производительности, подходит для базовых исследований или сравнительных тестов, но активность сообщества снизилась.
BLOOM: поддержка нескольких языков довольно сильная, но производительность вывода слабая, подходит для исследований по охвату языков.
GPT-2: классическая ранняя модель, подходит только для учебных и проверочных целей, не рекомендуется для реального развертывания.
Хотя модельный набор OpenLedger не включает последние высокопроизводительные MoE-модели или многомодальные модели, его стратегия не устарела, а представляет собой «практически ориентированную» конфигурацию, основанную на реальных ограничениях развертывания на цепочке (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Model Factory как инструмент без кода, все модели встроены в механизм доказательства вклада, который обеспечивает права данных участников и разработчиков моделей, обладая низким порогом входа, возможностью монетизации и комбинирования, по сравнению с традиционными инструментами разработки моделей:
Для разработчиков: предоставить полный путь к инкубации моделей, их распространению и доходам;
Для платформы: формирование экосистемы обращения и комбинации модельных активов;
Для пользователей: можно комбинировать использование модели или агента, как при вызове API.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, токенизация on-chain активов модели донастройки
LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который учит новые задачи, вставляя «низкоранговые матрицы» в предобученные большие модели, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели (например, LLaMA, GPT-3) обычно имеют десятки миллиардов, а то и сотни миллиардов параметров. Для их использования в специфических задачах (например, юридические вопросы, медицинские консультации) необходимо провести тонкую настройку (fine-tuning). Основная стратегия LoRA заключается в следующем: «заморозить параметры оригинальной большой модели, обучая только вставленные новые параметрические матрицы». Это параметрически эффективно, быстро обучается и гибко разворачивается, что делает его наиболее подходящим методом для развертывания и комбинированного вызова моделей Web3.
OpenLoRA — это легковесный фреймворк для вывода, разработанный OpenLedger, специально предназначенный для развертывания нескольких моделей и совместного использования ресурсов. Его главная цель — решить распространенные проблемы, связанные с развертыванием AI моделей, такие как высокие затраты, низкая повторная использование и неэффективное использование ресурсов GPU, и способствовать реализации «оплачиваемого AI» (Payable AI).
Основные компоненты архитектуры системы OpenLoRA, основанные на модульном дизайне, охватывают ключевые этапы хранения модели, выполнения вывода, маршрутизации запросов и т.д., обеспечивая эффективное и недорогое развертывание и вызов нескольких моделей.
Модуль хранения LoRA Adapter (LoRA Adapters Storage): дообученные адаптеры LoRA размещаются на OpenLedger, что позволяет загружать их по мере необходимости, избегая предзагрузки всех моделей в видеопамять, экономя ресурсы.
Модельный хостинг и динамический слой слияния (Model Hosting & Adapter Merging Layer)
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
17 Лайков
Награда
17
6
Репост
Поделиться
комментарий
0/400
GasFeeWhisperer
· 08-19 18:34
Кто еще занимается GPU?
Посмотреть ОригиналОтветить0
MrDecoder
· 08-18 15:49
Снова будут играть для лохов
Посмотреть ОригиналОтветить0
gas_fee_therapist
· 08-16 20:00
Мы скажем, что ажиотаж вокруг GPU уже прошел.
Посмотреть ОригиналОтветить0
CryptoNomics
· 08-16 19:57
*вздох* еще один нарратив GPT, лишенный анализа стохастического равновесия
Посмотреть ОригиналОтветить0
FlashLoanLord
· 08-16 19:47
А, это ведь игра на вычислительную мощность!
Посмотреть ОригиналОтветить0
HodlVeteran
· 08-16 19:44
Ещё одна волна ИИ-нарративов пришла, опытный водитель советует всем пристегнуть ремни безопасности.
OpenLedger строит экосистему стимулов для AI в блокчейне на основе OP Stack и EigenDA
Подробный исследовательский отчет по OpenLedger: Построение управляемой данными и компонуемой агентской экономикой на основе OP Stack+EigenDA
Один. Введение | Переход модели Crypto AI
Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модель) и энергии (вычислительная мощность) – каждый из них необходим. Подобно эволюционному пути инфраструктуры традиционной индустрии ИИ, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок был временно доминирован децентрализованными GPU проектами, которые в основном подчеркивали логику грубого роста «конкуренции вычислительной мощности». Однако после 2025 года внимание отрасли постепенно сместилось на уровень моделей и данных, что знаменует переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и ценному применению на среднем уровне.
Универсальная большая модель (LLM) против специализированной модели (SLM)
Традиционные крупные языковые модели (LLM) сильно зависят от масштабных наборов данных и сложной распределенной архитектуры, размер параметров составляет от 70B до 500B, а стоимость одной тренировки часто достигает миллионов долларов. SLM (Специализированная языковая модель) представляет собой легковесную парадигму тонкой настройки многоразовой базовой модели, которая обычно основана на открытых моделях, таких как LLaMA, Mistral, DeepSeek, в сочетании с небольшим объемом качественных специализированных данных и технологиями LoRA, что позволяет быстро создавать экспертные модели с определенными областными знаниями, значительно снижая затраты на обучение и технические барьеры.
Следует отметить, что SLM не будет интегрирован в веса LLM, а будет взаимодействовать с LLM через архитектуру Agent, динамическую маршрутизацию через систему плагинов, горячую замену модулей LoRA и RAG (усиление генерации с помощью поиска). Эта архитектура сохраняет широкие возможности LLM и одновременно усиливает профессиональные показатели за счет модуля тонкой настройки, формируя высоко гибкую комбинированную интеллектуальную систему.
Крипто ИИ в модели ценности и границы
Крипто AI проекты по сути сложно напрямую повысить основные способности больших языковых моделей (LLM), основной причиной является
Однако, на основе открытых моделей, проекты Crypto AI могут все же осуществлять расширение ценности через тонкую настройку специализированных языковых моделей (SLM) и сочетание с верифицируемостью и механизмами стимулов Web3. В качестве «периферийного интерфейсного слоя» AI цепочки поставок это проявляется в двух основных направлениях:
Классификация типов AI моделей и анализ применимости в блокчейне
Таким образом, можно увидеть, что жизнеспособные точки приложения моделей класса Crypto AI в основном сосредоточены на легковесной настройке малых SLM, интеграции и верификации данных на блокчейне с архитектурой RAG, а также на локальном развертывании и стимулировании Edge моделей. В сочетании с проверяемостью блокчейна и токеномикой, Crypto может предоставить уникальную ценность для таких сцен с низкими и средними ресурсами, создавая дифференцированную ценность «интерфейсного слоя» AI.
Блокчейн AI цепь на основе данных и моделей может обеспечить четкую, неизменяемую запись источников вклада каждой данные и модели, значительно повышая доверие к данным и отслеживаемость обучения моделей. В то же время, с помощью механизма смарт-контрактов автоматически инициируется распределение вознаграждений при вызове данных или моделей, превращая действия AI в измеримую, торгуемую токенизированную ценность и создавая устойчивую систему стимулов. Кроме того, пользователи сообщества также могут оценивать производительность моделей, участвовать в разработке правил и итераций через голосование токенами, улучшая архитектуру децентрализованного управления.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, Обзор проекта | Видение AI цепи OpenLedger
OpenLedger является одним из немногих проектов блокчейн ИИ на рынке, сосредоточенным на механизмах стимулирования данных и моделей. Он первым предложил концепцию «Payable AI», направленную на создание справедливой, прозрачной и комбинируемой среды работы ИИ, стимулируя вкладчиков данных, разработчиков моделей и строителей ИИ-приложений к сотрудничеству на одной платформе и получению дохода на блокчейне в зависимости от их реального вклада.
OpenLedger предоставляет полный замкнутый цикл от «предоставления данных» до «развертывания модели» и «вызова распределения прибыли», его основные модули включают:
С помощью вышеуказанных модулей OpenLedger создал «инфраструктуру экономического агентства», основанную на данных и комбинированных моделях, способствуя ончейн-интеграции ценностной цепочки ИИ.
А в применении технологии блокчейн OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, недорогую и проверяемую среду для выполнения данных и контрактов для AI моделей.
В отличие от таких более низкоуровневых блокчейнов, как NEAR, которые ориентированы на суверенитет данных и архитектуру «AI Agents on BOS», OpenLedger больше сосредоточен на создании специализированных блокчейнов для AI, ориентированных на данные и модели. Он стремится обеспечить возможность разработки и вызова моделей в цепочке с достижением прослеживаемого, комбинируемого и устойчивого замкнутого цикла ценности. Это инфраструктура для моделирования и стимулов в мире Web3, объединяющая хостинг моделей в стиле HuggingFace, биллинг за использование в стиле Stripe и комбинируемые интерфейсы в стиле Infura, способствующие реализации концепции «модель как актив».
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три. Основные компоненты и технологическая архитектура OpenLedger
3.1 Модельный завод, не требуется кодовая модель
ModelFactory является крупной платформой для дообучения языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков дообучения, ModelFactory предлагает полностью графический интерфейс, не требуя командной строки или интеграции API. Пользователи могут дообучать модели на основе данных, прошедших авторизацию и проверку на OpenLedger. Реализован интегрированный рабочий процесс, включающий авторизацию данных, обучение модели и развертывание, основной процесс включает в себя:
Архитектура системы Model Factory включает шесть основных модулей, охватывающих аутентификацию личности, права доступа к данным, тонкую настройку модели, оценку и развертывание, а также RAG трассировку, создавая безопасную и контролируемую, интерактивную в реальном времени и устойчивую к монетизации интегрированную платформу сервисов моделей.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
Модельный завод в настоящее время поддерживает следующие возможности больших языковых моделей:
Хотя модельный набор OpenLedger не включает последние высокопроизводительные MoE-модели или многомодальные модели, его стратегия не устарела, а представляет собой «практически ориентированную» конфигурацию, основанную на реальных ограничениях развертывания на цепочке (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Model Factory как инструмент без кода, все модели встроены в механизм доказательства вклада, который обеспечивает права данных участников и разработчиков моделей, обладая низким порогом входа, возможностью монетизации и комбинирования, по сравнению с традиционными инструментами разработки моделей:
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, токенизация on-chain активов модели донастройки
LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который учит новые задачи, вставляя «низкоранговые матрицы» в предобученные большие модели, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели (например, LLaMA, GPT-3) обычно имеют десятки миллиардов, а то и сотни миллиардов параметров. Для их использования в специфических задачах (например, юридические вопросы, медицинские консультации) необходимо провести тонкую настройку (fine-tuning). Основная стратегия LoRA заключается в следующем: «заморозить параметры оригинальной большой модели, обучая только вставленные новые параметрические матрицы». Это параметрически эффективно, быстро обучается и гибко разворачивается, что делает его наиболее подходящим методом для развертывания и комбинированного вызова моделей Web3.
OpenLoRA — это легковесный фреймворк для вывода, разработанный OpenLedger, специально предназначенный для развертывания нескольких моделей и совместного использования ресурсов. Его главная цель — решить распространенные проблемы, связанные с развертыванием AI моделей, такие как высокие затраты, низкая повторная использование и неэффективное использование ресурсов GPU, и способствовать реализации «оплачиваемого AI» (Payable AI).
Основные компоненты архитектуры системы OpenLoRA, основанные на модульном дизайне, охватывают ключевые этапы хранения модели, выполнения вывода, маршрутизации запросов и т.д., обеспечивая эффективное и недорогое развертывание и вызов нескольких моделей.