OpenLedger будує екосистему стимулів для AI у блокчейні на основі OP Stack та EigenDA

OpenLedger Глибина дослідження: на основі OP Stack+EigenDA створити економіку агентів, що керується даними та має можливість комбінування моделей

Одне. Вступ | Перехід модельного шару Crypto AI

Дані, моделі та обчислювальна потужність є трьома основними елементами інфраструктури AI, аналогічно паливу (дані), двигуну (модель), енергії (обчислювальна потужність) - жоден з них не може бути відсутнім. Як і в традиційній індустрії AI, шлях еволюції інфраструктури в Crypto AI також пройшов подібні етапи. На початку 2024 року ринок на певний час був під контролем децентралізованих GPU проектів, які в основному підкреслювали логіку грубого зростання «потужності обчислень». Однак з початком 2025 року увага галузі поступово зростала до рівня моделей та даних, що позначає перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного для застосування середнього рівня будівництва.

Загальний великий модель (LLM) vs Спеціалізована модель (SLM)

Традиційні великі мовні моделі (LLM) вимагають великої залежності від масштабних наборів даних і складних розподілених архітектур, розмір параметрів часто коливається від 70B до 500B, а вартість одного навчання може сягати мільйонів доларів. SLM (Спеціалізована мовна модель) є легким підходом до налаштування повторно використовуваної базової моделі, яка зазвичай базується на відкритих моделях, таких як LLaMA, Mistral, DeepSeek, поєднуючи невелику кількість якісних спеціалізованих даних і технологій, таких як LoRA, швидко створюючи експертні моделі з конкретними знаннями в певній галузі, що значно знижує витрати на навчання і технологічні бар'єри.

Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде взаємодіяти з LLM через архітектуру агентів, динамічну маршрутизацію плагінів, гарячу заміну модуля LoRA, RAG (посилене генерування за допомогою пошуку) та інші методи. Ця архітектура зберігає широку охоплювальну здатність LLM і одночасно завдяки модулям тонкого налаштування покращує професійну ефективність, формуючи високо гнучку комбіновану інтелектуальну систему.

Crypto AI вартість і межі на рівні моделі

Проекти Crypto AI в основному важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина в тому, що

  • Технічний бар'єр занадто високий: масштаби даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, в даний час лише такі технологічні гіганти, як США та Китай, мають відповідні можливості.
  • Обмеження відкритої екосистеми: незважаючи на те, що основні моделі, такі як LLaMA та Mixtral, вже стали відкритими, справжнє просування прориву моделей все ще зосереджено на науково-дослідних установах та закритих інженерних системах, а участь проектів на блокчейні на рівні основних моделей є обмеженою.

Проте, на основі відкритих базових моделей проекти Crypto AI все ще можуть реалізувати розширення вартості шляхом доопрацювання спеціалізованих мовних моделей (SLM) та поєднання з верифікацією та механізмами стимулювання Web3. Як «периферійний інтерфейсний шар» індустрії AI, це втілюється в двох основних напрямках:

  • Достовірний верифікаційний шар: через записи в ланцюгу, що відображають шлях генерації моделі, внески в дані та їх використання, покращує простежуваність і стійкість до підробок результатів AI.
  • Механізм стимулювання: за допомогою рідного токена, що використовується для стимулювання завантаження даних, виклику моделей, виконання агентів (Agent) та інших дій, створюється позитивний цикл навчання моделей та обслуговування.

Класифікація типів моделей ІІ та аналіз придатності для блокчейну

Отже, можна зробити висновок, що можливі точки застосування моделей класу Crypto AI в основному зосереджені на легкій налаштуванні малих SLM, інтеграції та верифікації даних на блокчейні за архітектурою RAG, а також на локальному розгортанні та стимулюванні моделей Edge. Поєднуючи перевірність блокчейну та токенну механіку, Crypto може надати унікальну цінність для цих середньо- та малоресурсних моделей, утворюючи диференційовану цінність «інтерфейсного шару» AI.

Основуючи на даних та моделях блокчейн AI ланцюг, може чітко та незмінно реєструвати джерела внесків для кожного набору даних та моделі, що суттєво підвищує довіру до даних та можливість відстеження навчання моделей. Одночасно, через механізм смарт-контрактів, при виклику даних або моделі автоматично активується розподіл винагород, що перетворює поведінку AI в вимірювану, торгівельну токенізовану цінність, створюючи стійку систему стимулів. Крім того, користувачі спільноти можуть оцінювати ефективність моделей через голосування токенами, брати участь у розробці та ітерації правил, вдосконалюючи архітектуру децентралізованого управління.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)

Два, огляд проекту | Візія AI-ланцюга OpenLedger

OpenLedger є одним з небагатьох блокчейн AI проектів, які зосереджені на механізмах винагороди за дані та моделі на поточному ринку. Він першим запропонував концепцію «Payable AI», що має на меті створення справедливого, прозорого та комбінованого середовища для роботи AI, яке стимулює співпрацю між внесниками даних, розробниками моделей та творцями AI додатків на одній платформі, а також отримання прибутку на ланцюгу відповідно до фактичного внеску.

OpenLedger надає повний ланцюг замикання від «надання даних» до «розгортання моделей», а потім до «виклику розподілу прибутку», його основні модулі включають:

  • Модельний завод: без програмування можна використовувати LoRA для тонкого налаштування, навчання та розгортання користувацьких моделей на основі відкритих LLM;
  • OpenLoRA: підтримка спільного розміщення тисячі моделей, динамічна загрузка за потребою, значне зниження витрат на розгортання;
  • PoA (Proof of Attribution): через виклики в ланцюгу реалізується вимірювання внеску та розподіл винагород;
  • Datanets: структуровані мережі даних, орієнтовані на вертикальні сценарії, що будуються та перевіряються спільнотою;
  • Платформа пропозицій моделей (Model Proposal Platform): комбінований, викликаємий, платіжний ринковий майданчик моделей на блокчейні.

Завдяки вищезгаданим модулям, OpenLedger побудував дані, що керуються, модельно комбіновану «інфраструктуру економіки агентів», що сприяє онлайнізації ланцюга вартості ШІ.

А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу для створення високопродуктивного, низькозатратного та перевіряємого середовища для виконання даних та контрактів для моделей ШІ.

  • Побудовано на OP Stack: основане на технологічному стеку Optimism, підтримує високу пропускну спроможність та низькі витрати на виконання;
  • Розрахунок в мережі Ethereum: Забезпечте безпеку транзакцій та цілісність активів;
  • EVM сумісність: зручно для розробників швидко розгортати та розширювати на основі Solidity;
  • EigenDA надає підтримку доступності даних: суттєво знижує витрати на зберігання, забезпечує перевірність даних.

У порівнянні з NEAR, який більше орієнтований на базовий рівень, акцентуючи увагу на суверенітеті даних і архітектурі «AI Agents on BOS», OpenLedger більше зосереджується на створенні спеціалізованого блокчейну для штучного інтелекту, орієнтованого на дані та моделі, прагнучи реалізувати відстежувані, комбіновані та стійкі ціннісні цикли для розробки та використання моделей на ланцюзі. Це інфраструктура для стимулювання моделей у світі Web3, яка поєднує в собі модельне хостинг у стилі HuggingFace, виставлення рахунків за використання у стилі Stripe та комбіновані інтерфейси на ланцюзі у стилі Infura, сприяючи реалізації концепції «модель як актив».

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)

Три, основні компоненти та технологічна архітектура OpenLedger

3.1 Модельна фабрика, безкодова модельна фабрика

ModelFactory є великою платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків для доопрацювання, ModelFactory надає чистий графічний інтерфейс, без необхідності використання командного рядка або API інтеграції. Користувачі можуть доопрацьовувати моделі на основі наборів даних, які були авторизовані та перевірені в OpenLedger. Це реалізує інтегрований робочий процес для авторизації даних, навчання моделей та їх розгортання, до основних етапів якого належать:

  • Контроль доступу до даних: користувач надсилає запит на дані, постачальник перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
  • Вибір та налаштування моделі: Підтримка основних LLM (таких як LLaMA, Mistral), налаштування гіперпараметрів через GUI.
  • Легке налаштування: вбудований двигун LoRA / QLoRA, що в реальному часі демонструє прогрес навчання.
  • Оцінка та розгортання моделей: вбудовані інструменти оцінки, підтримка експорту для розгортання або екосистемного спільного використання.
  • Інтерфейс взаємодії для перевірки: надає чат-інтерфейс, що полегшує безпосереднє тестування здатності моделі відповідати на запитання.
  • RAG генерування відстеження: відповіді з посиланнями на джерела, що підвищує довіру та можливість аудиту.

Архітектура системи Model Factory складається з шести основних модулів, які охоплюють ідентифікацію, управління даними, мікронастройку моделей, оцінку, розгортання та RAG трасування, створюючи інтегровану платформу моделей послуг з безпечним управлінням, реальним взаємодією та стійкою монетизацією.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)

Модельний завод наразі підтримує такі можливості великих мовних моделей:

  • Серія LLaMA: найбільша екосистема, активна спільнота, сильна загальна продуктивність, є однією з найпоширеніших відкритих базових моделей на сьогодні.
  • Mistral: Архітектура ефективна, інферентна продуктивність відмінна, підходить для гнучкого розгортання в умовах обмежених ресурсів.
  • Qwen: комплексні можливості, підходить для вибору вітчизняних розробників.
  • ChatGLM: Відзначається видатними результатами в китайському діалозі, підходить для вертикальних клієнтських послуг та локалізованих сценаріїв.
  • Deepseek: Відзначається перевагами в генерації коду та математичному висновуванні, підходить для інструментів допомоги в інтелектуальній розробці.
  • Gemma: Легка модель, випущена Google, має чітку структуру, що дозволяє швидко освоювати та експериментувати.
  • Falcon: колись був еталоном продуктивності, підходить для фундаментальних досліджень або порівняльного тестування, але активність у спільноті знизилася.
  • BLOOM: має сильну підтримку кількох мов, але продуктивність висновків є слабшою, підходить для досліджень з охоплення мов.
  • GPT-2: класична рання модель, яка підходить лише для навчальних і верифікаційних цілей, не рекомендується для використання в реальних умовах.

Хоча модельний набір OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не є застарілою, а є «практичною першою» конфігурацією, заснованою на реальних обмеженнях розгортання в ланцюзі (вартість висновків, адаптація RAG, сумісність LoRA, середовище EVM).

Model Factory як безкодова інструментальна ланцюг, всі моделі вбудовані з механізмом підтвердження внесків, що забезпечує права учасників внесків даних та розробників моделей, має низький бар'єр, можливість монетизації та комбінованість, у порівнянні з традиційними інструментами розробки моделей:

  • Для розробників: забезпечити повний шлях до інкубації, розповсюдження та доходу моделей;
  • Для платформи: формування обігу моделей активів та екосистеми комбінацій;
  • Для застосовувача: можна комбінувати моделі або агенти так само, як викликати API.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA, активізація он-chain активів моделі доопрацювання

LoRA (Низькорейкова адаптація) є ефективним методом тонкої настройки параметрів, який навчає нові завдання шляхом вставлення «низькорейкових матриць» у попередньо навчену велику модель без зміни параметрів оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (такі як LLaMA, GPT-3) зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (таких як юридичні запитання, медичні консультації), необхідно провести тонку настройку (fine-tuning). Основна стратегія LoRA полягає в тому, що: «заморожуються параметри оригінальної великої моделі, тренуються лише вставлені нові параметричні матриці». Вона є параметрично ефективною, швидкою в навчанні та гнучкою в розгортанні, що робить її найбільш підходящим основним методом тонкої настройки для розгортання моделей Web3 та комбінованих викликів.

OpenLoRA є легковаговою системою інференції, розробленою OpenLedger, спеціально створеною для розгортання декількох моделей та спільного використання ресурсів. Її основна мета полягає в розв'язанні поширених проблем, що виникають під час розгортання AI моделей, таких як високі витрати, низька повторна використання, витрати GPU ресурсів тощо, щоб сприяти реалізації «платоспроможного AI» (Payable AI).

Ядро архітектури системи OpenLoRA, засноване на модульному дизайні, охоплює ключові етапи, такі як зберігання моделей, виконання висновків, маршрутизація запитів тощо, реалізуючи ефективні та економічні можливості для розгортання та виклику декількох моделей:

  • Модуль зберігання LoRA адаптерів (LoRA Adapters Storage): налаштований LoRA адаптер розміщується на OpenLedger, що дозволяє завантажувати на вимогу, уникаючи попереднього завантаження всіх моделей у відеопам'ять, економлячи ресурси.
  • Модельне хостинг та динамічний шар злиття (Model Hosting & Adapter Merging Layer)
OP0.83%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 6
  • Репост
  • Поділіться
Прокоментувати
0/400
GasFeeWhisperervip
· 08-19 18:34
Хто ще займається використанням GPU?
Переглянути оригіналвідповісти на0
MrDecodervip
· 08-18 15:49
Знову обман для дурнів!
Переглянути оригіналвідповісти на0
gas_fee_therapistvip
· 08-16 20:00
Ми можемо сказати, що ажіотаж навколо GPU вже пройшов.
Переглянути оригіналвідповісти на0
CryptoNomicsvip
· 08-16 19:57
*зітхання* ще один наратив GPT, який не має аналізу стохастичної рівноваги
Переглянути оригіналвідповісти на0
FlashLoanLordvip
· 08-16 19:47
А це ж гра на обчислювальну потужність!
Переглянути оригіналвідповісти на0
HodlVeteranvip
· 08-16 19:44
Ще одна хвиля AI-оповідання прийшла, досвідчений водій радить всім пристебнути ремені безпеки.
Переглянути оригіналвідповісти на0
  • Закріпити