OpenLedger تبني نموذج تحفيز النظام البيئي داخل السلسلة قائم على OP Stack و EigenDA

OpenLedger العمق تقرير بحثي: باستخدام OP Stack + EigenDA كأساس، بناء اقتصاد وكيل مدفوع بالبيانات وقابل للتكوين بالنماذج

المقدمة | الانتقال في طبقة نموذج Crypto AI

البيانات والنماذج والطاقة الحاسوبية هي العناصر الثلاثة الأساسية لبنية تحتية للذكاء الاصطناعي، مشابهاً للوقود (البيانات) والمحرك (النموذج) والطاقة (الطاقة الحاسوبية) التي لا غنى عنها. على غرار مسار تطور بنية تحتية للصناعة التقليدية للذكاء الاصطناعي، شهدت أيضًا مجال الذكاء الاصطناعي في العملات المشفرة مراحل مماثلة. في أوائل عام 2024، كانت السوق مهيمنة من قبل مشاريع GPU اللامركزية، مع التركيز العام على منطق النمو الواسع "تجميع الطاقة الحاسوبية". ومع دخول عام 2025، بدأ التركيز في القطاع بالانتقال تدريجياً إلى طبقة النماذج والبيانات، مما يشير إلى أن الذكاء الاصطناعي في العملات المشفرة ينتقل من المنافسة على الموارد الأساسية إلى بناء طبقة وسطى أكثر استدامة وقيمة تطبيقية.

النموذج الكبير العام (LLM) مقابل النموذج المتخصص (SLM)

النماذج اللغوية الكبيرة التقليدية (LLM) تعتمد بشكل كبير على مجموعات البيانات الكبيرة والبنية التحتية المعقدة الموزعة، حيث تتراوح أحجام المعلمات من 70B إلى 500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى عدة ملايين من الدولارات. بينما يُعتبر SLM (نموذج اللغة المتخصص) نمطًا خفيفًا للتعديل الدقيق لنموذج أساسي قابل لإعادة الاستخدام، وعادةً ما يعتمد على نماذج مفتوحة المصدر مثل LLaMA وMistral وDeepSeek، ويجمع بين كمية صغيرة من البيانات المهنية عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك معرفة في مجالات محددة بسرعة، مما يقلل بشكل كبير من تكلفة التدريب والعتبة التقنية.

من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيتعاون مع LLM من خلال هيكل Agent، نظام الإضافات للتوجيه الديناميكي، توصيل LoRA الساخن، وRAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. هذه البنية تحتفظ بقدرة LLM الواسعة، بينما تعزز الأداء المتخصص من خلال وحدات التخصيص، مما يشكل نظام ذكاء مركب عالي المرونة.

قيمة وحدود الذكاء الصناعي في طبقة النموذج

مشاريع الذكاء الاصطناعي للعملات المشفرة من الصعب بشكل أساسي تعزيز القدرات الأساسية لنموذج اللغة الكبير (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو

  • العتبة التقنية مرتفعة للغاية: إن حجم البيانات وموارد الحوسبة والقدرات الهندسية المطلوبة لتدريب نموذج Foundation ضخمة للغاية، وفي الوقت الحالي، لا تمتلك سوى شركات التكنولوجيا الكبرى في الولايات المتحدة والصين القدرة المناسبة.
  • قيود النظام البيئي المفتوح المصدر: على الرغم من أن النماذج الأساسية السائدة مثل LLaMA و Mixtral قد تم فتح مصدرها، إلا أن المفتاح الحقيقي لدفع النماذج نحو التفوق لا يزال مركزًا في المؤسسات البحثية وأنظمة الهندسة المغلقة، حيث أن مساحة المشاركة لمشاريع السلسلة في مستوى النموذج الأساسي محدودة.

ومع ذلك، يمكن لمشاريع Crypto AI أن تحقق قيمة ممتدة من خلال تحسين نماذج اللغة المتخصصة (SLM) فوق نماذج الأساس مفتوحة المصدر، ودمج قابلية التحقق وآليات التحفيز في Web3. كـ "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، تُعبر عن اتجاهين رئيسيين:

  • طبقة التحقق الموثوق: من خلال تسجيل مسار توليد النموذج، ومساهمات البيانات، واستخدامها على السلسلة، تعزز من إمكانية تتبع مخرجات الذكاء الاصطناعي وقدرتها على مقاومة التلاعب.
  • آلية التحفيز: من خلال استخدام الرموز الأصلية، لتحفيز سلوكيات تحميل البيانات، واستدعاء النماذج، وتنفيذ الوكلاء، لبناء حلقة إيجابية لتدريب النماذج وتقديم الخدمات.

تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمتها للبلوكشين

يتضح من ذلك أن النقاط القابلة للتطبيق لمشاريع AI Crypto من نوع النموذج تتركز بشكل رئيسي على تحسين دقة SLM الصغيرة، وتكامل البيانات والتحقق على السلسلة من بنية RAG، وإطلاق النماذج Edge محليًا مع الحوافز. بالاستفادة من القابلية للتحقق من البلوكشين وآلية التوكن، يمكن لـ Crypto أن توفر قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يشكل قيمة تمييزية لطبقة واجهة AI.

سلسلة blockchain AI المستندة إلى البيانات والنماذج، يمكن أن تسجل بوضوح وبدون تغيير كل بيانات ومصادر مساهمة النموذج، مما يعزز بشكل كبير موثوقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تنشيط توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النموذج، مما يحول سلوك AI إلى قيمة رمزية قابلة للقياس والتداول، ويؤسس نظام حوافز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع تقييم أداء النموذج من خلال تصويت الرموز، والمشاركة في وضع القواعد وتكرارها، وتحسين هيكل الحوكمة اللامركزية.

! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)

ثانياً، نظرة عامة على المشروع | رؤية OpenLedger للذكاء الاصطناعي في سلسلة الكتل

OpenLedger هو أحد المشاريع القليلة في السوق التي تركز على بيانات ونماذج آليات التحفيز للذكاء الاصطناعي على blockchain. لقد قدمت مفهوم "AI القابل للدفع" في وقت مبكر، وتهدف إلى بناء بيئة تشغيل عادلة وشفافة وقابلة للتجميع للذكاء الاصطناعي، وتحفيز المساهمين في البيانات، ومطوري النماذج، وبناة تطبيقات الذكاء الاصطناعي للتعاون على نفس المنصة، والحصول على أرباح على السلسلة بناءً على المساهمة الفعلية.

OpenLedger توفر حلقة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" ثم "استدعاء الأرباح"، وتشمل وحداتها الأساسية:

  • مصنع النموذج: بدون برمجة، يمكنك استخدام LoRA لضبط وتدريب ونشر نموذج مخصص بناءً على LLM مفتوح المصدر؛
  • OpenLoRA: تدعم وجود آلاف النماذج معًا، وتحميلها ديناميكيًا حسب الحاجة، مما يقلل بشكل كبير من تكلفة النشر؛
  • PoA (الإثبات على النسبة): تحقيق قياس المساهمة وتوزيع المكافآت من خلال سجلات الاستدعاء على السلسلة؛
  • Datanets: شبكة بيانات هيكلية موجهة نحو سيناريوهات عمودية، تم بناؤها والتحقق منها بواسطة التعاون المجتمعي؛
  • منصة اقتراح النموذج (Model Proposal Platform): سوق نماذج على السلسلة قابلة للتجميع، وقابلة للاستدعاء، وقابلة للدفع.

من خلال الوحدات السابقة، أنشأت OpenLedger "بنية تحتية للاقتصاد الذكي" مدفوعة بالبيانات وقابلة للتكوين، مما يعزز عملية تحويل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.

وفي اعتماد تقنية البلوكشين، تستخدم OpenLedger OP Stack + EigenDA كأساس، لبناء بيئة تشغيل عالية الأداء ومنخفضة التكلفة وقابلة للتحقق للبيانات والعقود لنماذج الذكاء الاصطناعي.

  • مبني على OP Stack: مبني على تقنية Optimism، يدعم تنفيذ عالي الإنتاجية ومنخفض التكلفة؛
  • تسوية على الشبكة الرئيسية للإيثيريوم: ضمان أمان المعاملات وسلامة الأصول؛
  • متوافق مع EVM: يسهل على المطورين نشر وتوسيع بسرعة باستخدام Solidity؛
  • EigenDA توفر دعم توفر البيانات: يقلل بشكل كبير من تكاليف التخزين، ويضمن قابلية التحقق من البيانات.

بالمقارنة مع سلاسل AI العامة مثل NEAR التي تركز أكثر على البنية التحتية الأساسية وحقوق البيانات و "الوكلاء الذكاء الاصطناعي على BOS"، تركز OpenLedger بشكل أكبر على بناء سلاسل AI مخصصة تحفز على البيانات والنماذج، وتهدف إلى تحقيق دورة قيمة قابلة للتتبع، وقابلة للتجميع، ومستدامة لتطوير النماذج واستدعائها على السلسلة. إنها بنية تحتية لتحفيز النماذج في عالم Web3، تجمع بين استضافة النماذج على طريقة HuggingFace، وفوترة الاستخدام على طريقة Stripe، وواجهة قابلة للتجميع على السلسلة على طريقة Infura، مما يدفع نحو تحقيق "النموذج كأصل".

! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)

ثلاثة، المكونات الأساسية و الهيكل الفني لـ OpenLedger

3.1 نموذج المصنع،无需代码 نموذج المصنع

ModelFactory هو منصة لتعديل نموذج اللغة الكبيرة (LLM) ضمن نظام OpenLedger البيئي. على عكس أطر التعديل التقليدية، يوفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين تعديل النموذج بناءً على مجموعات البيانات التي تم الانتهاء من تفويضها ومراجعتها على OpenLedger. تم تحقيق تكامل سير العمل لتفويض البيانات وتدريب النموذج ونشره، وتشمل العمليات الأساسية ما يلي:

  • التحكم في وصول البيانات: يقدم المستخدم طلب بيانات، ويقوم المزود بمراجعته والموافقة عليه، ويتم إدخال البيانات تلقائيًا في واجهة تدريب النموذج.
  • اختيار النموذج وتكوينه: دعم LLM الشائعة (مثل LLaMA و Mistral) ، من خلال واجهة المستخدم الرسومية لتكوين المعلمات الفائقة.
  • التخفيف من الوزن: محرك LoRA / QLoRA المدمج، يعرض تقدم التدريب في الوقت الحقيقي.
  • تقييم النموذج ونشره: أدوات تقييم مدمجة، تدعم تصدير النشر أو مشاركة الاستدعاء البيئي.
  • واجهة التحقق التفاعلية: توفر واجهة دردشة، مما يسهل اختبار قدرة النموذج على الإجابة.
  • RAG توليد التتبع: إجابات مع مراجع المصدر، تعزز الثقة والقابلية للتدقيق.

يتكون هيكل نظام Model Factory من ستة وحدات، تغطي مصادقة الهوية، صلاحيات البيانات، ضبط النماذج، تقييم النشر و RAG تتبع المصدر، مما يخلق منصة خدمة نماذج متكاملة آمنة وقابلة للتحكم، تفاعلية في الوقت الحقيقي، وقابلة للتسويق المستدام.

! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)

جدول ملخص قدرات نماذج اللغة الكبيرة التي يدعمها ModelFactory حالياً كما يلي:

  • سلسلة LLaMA: الأكثر شمولاً في البيئة، مجتمع نشط، أداء عام قوي، هي واحدة من النماذج الأساسية مفتوحة المصدر الأكثر شيوعاً حالياً.
  • مِستراَل: هيكل فعال، وأداء استدلال ممتاز، مناسب للنشر المرن، والسيناريوهات ذات الموارد المحدودة.
  • Qwen: القدرة الشاملة قوية، مناسبة لتكون الخيار الأول للمطورين المحليين.
  • ChatGLM: تأثير المحادثة باللغة الصينية بارز، مناسب لخدمة العملاء المتخصصة والمشاهد المحلية.
  • Deepseek: يتميز بأداء متفوق في توليد الشفرات والاستدلال الرياضي، مناسب لأدوات المساعدة في تطوير الذكاء.
  • جيمّا: نموذج خفيف تم إطلاقه من قِبل جوجل، ذو هيكل واضح، وسهل الاستخدام والتجريب بسرعة.
  • فالكون: كان معيار الأداء سابقًا، مناسب للأبحاث الأساسية أو اختبارات المقارنة، لكن نشاط المجتمع قد انخفض.
  • BLOOM: دعم متعدد اللغات قوي، لكن أداء الاستدلال ضعيف، مناسب لأبحاث تغطية اللغات.
  • GPT-2: نموذج كلاسيكي مبكر، مناسب فقط لأغراض التعليم والتحقق، لا يُنصح باستخدامه في النشر الفعلي.

على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست عتيقة، بل هي تكوين "الأولوية العملية" المستند إلى القيود الواقعية للنشر على السلسلة (تكاليف الاستدلال، توافق RAG، توافق LoRA، بيئة EVM).

Model Factory كأداة بدون كود، تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، لضمان حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بانخفاض العوائق، وقابلية التسييل والتركيب، مقارنة بأدوات تطوير النماذج التقليدية:

  • للمطورين: تقديم مسار كامل لنموذج الحضانة، التوزيع، والدخل؛
  • بالنسبة للمنصة: تشكيل تدفق أصول النموذج وبيئة التركيبة؛
  • بالنسبة للمستخدمين: يمكن دمج النموذج أو الوكيل كما هو الحال عند استدعاء API.

! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ moments-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA، تحويل الأصول على السلسلة لنموذج التخصيص

LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات، حيث تتعلم المهام الجديدة من خلال إدخال "مصفوفات منخفضة الرتبة" في نموذج كبير مُدرّب مسبقًا، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكاليف التدريب ومتطلبات التخزين. عادة ما تحتوي النماذج اللغوية الكبيرة التقليدية (مثل LLaMA وGPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام معينة (مثل الأسئلة القانونية، والاستشارات الطبية)، يتطلب الأمر ضبطًا (fine-tuning). الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب فقط مصفوفات المعلمات الجديدة المدخلة." تعتبر فعالة من حيث المعلمات، وسريعة التدريب، ومرنة في النشر، وهي الطريقة الرئيسية الأنسب لنشر نماذج Web3 واستدعائها بشكل مركب.

OpenLoRA هو إطار استدلال خفيف الوزن تم بناؤه بواسطة OpenLedger ، مصمم خصيصًا لنشر النماذج المتعددة ومشاركة الموارد. الهدف الأساسي له هو معالجة المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية مثل التكلفة العالية، وانخفاض إعادة الاستخدام، وهدر موارد GPU، ودفع تنفيذ "الذكاء الاصطناعي القابل للدفع".

OpenLoRA نظام العمارة المكونات الأساسية، مستند إلى تصميم موديولاري، يغطي تخزين النماذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من الجوانب الأساسية، لتحقيق كفاءة منخفضة التكلفة لنشر واستدعاء نماذج متعددة:

  • وحدة تخزين محولات LoRA (LoRA Adapters Storage): يتم استضافة محولات LoRA التي تم ضبطها في OpenLedger، مما يتيح التحميل حسب الطلب، وتجنب تحميل جميع النماذج في الذاكرة المرئية مسبقًا، مما يوفر الموارد.
  • استضافة النموذج وطبقة دمج المحولات (Model Hosting & Adapter Merging Layer)
OP-4.39%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 10
  • إعادة النشر
  • مشاركة
تعليق
0/400
GasFeeWhisperervip
· 08-19 18:34
من لا يزال يعمل على مسارات GPU؟
شاهد النسخة الأصليةرد0
MrDecodervip
· 08-18 15:49
مرة أخرى يُستغل بغباء.
شاهد النسخة الأصليةرد0
gas_fee_therapistvip
· 08-16 20:00
لقد انتهى الحديث عن ضجة GPU.
شاهد النسخة الأصليةرد0
CryptoNomicsvip
· 08-16 19:57
*sigh* مرة أخرى سرد GPT يفتقر إلى تحليل التوازن العشوائي
شاهد النسخة الأصليةرد0
FlashLoanLordvip
· 08-16 19:47
أه، أليست هذه لعبة تعتمد على قوة الحوسبة؟
شاهد النسخة الأصليةرد0
HodlVeteranvip
· 08-16 19:44
جولة جديدة من السرد القصصي بالذكاء الاصطناعي قادمة، ينصح السائقون المحترفون الجميع بربط أحزمة الأمان
شاهد النسخة الأصليةرد0
  • تثبيت