معركة نماذج الذكاء الاصطناعي: المنافسة التي يقودها المهندسون والتحديات التجارية

معركة "مئة نموذج" في مجال الذكاء الاصطناعي: مسابقة قائمة على الهندسة

في الشهر الماضي، شهدت صناعة الذكاء الاصطناعي "صراع الحيوان".

من جهة أخرى، قدمت شركة ميتا نموذج Llama (لاما) الذي نال إعجاب المطورين بسبب طبيعته المفتوحة المصدر. بعد دراسة ورقة Llama والكود، طورت شركة NEC اليابانية بسرعة إصدارًا باللغة اليابانية من ChatGPT، مما ساعد اليابان في التغلب على العقبات التقنية في مجال الذكاء الاصطناعي.

الطرف الآخر هو نموذج كبير يسمى فالكون. في مايو من هذا العام، تم إطلاق فالكون-40B، متجاوزًا ألباكا ليحتل المرتبة الأولى في تصنيف LLM مفتوح المصدر.

تم إنتاج هذا التصنيف بواسطة مجتمع نماذج مفتوحة المصدر، ويوفر معايير لتقييم قدرات LLM. يتناوب التصنيف أساسًا بين Llama وFalcon.

بعد إصدار Llama 2، احتلت الصدارة مؤقتًا، لكن في أوائل سبتمبر، أطلق Falcon نسخة 180B واستعاد المركز الأول.

من المثير للاهتمام أن مطوري Falcon ليسوا شركة تكنولوجيا، بل هي معهد بحوث تكنولوجية في العاصمة الإماراتية. وأفاد مسؤولون حكوميون أنهم يشاركون في هذه المنافسة من أجل كسر الهيمنة الحالية.

في اليوم التالي لإصدار النسخة 180B، تم اختيار وزير الذكاء الاصطناعي في الإمارات العربية المتحدة ضمن قائمة "أكثر 100 شخص تأثيرًا في مجال الذكاء الاصطناعي" في مجلة تايم، إلى جانب "أب الذكاء الاصطناعي" جيفري هينتون، وألتمن من OpenAI.

الآن دخلت مجال الذكاء الاصطناعي مرحلة من التنوع والازدهار. الدول والشركات التي تمتلك قدرًا معينًا من رأس المال تحاول جميعها إنشاء نسخ محلية من ChatGPT. في منطقة الخليج، كانت السعودية قد اشترت أكثر من 3000 شريحة H100 للجامعات المحلية لاستخدامها في تدريب نماذج اللغة الكبيرة.

لقد انتقد بعض المستثمرين: في ذلك الوقت، اعتقدوا أن الابتكار في نماذج الأعمال عبر الإنترنت ليس له جدران حماية. لم يتوقعوا أن ريادة الأعمال في النماذج الكبيرة للتكنولوجيا الصلبة لا تزال تتسم بصراع المئات من النماذج.

كيف تحولت التكنولوجيا الصعبة التي يُزعم أنها عالية الصعوبة إلى مسابقة يمكن للجميع المشاركة فيها؟

خوارزمية Transformer غيرت قواعد اللعبة

تعود الفضل في قدرة الشركات الناشئة الأمريكية، والعملاق التكنولوجي الصيني، وأمراء النفط في الشرق الأوسط على الانغماس في تطوير النماذج الكبيرة إلى الورقة البحثية الشهيرة "Attention Is All You Need".

في عام 2017، كشف ثمانية علماء من جوجل عن خوارزمية Transformer في هذه الورقة. هذه واحدة من أكثر الأوراق استشهادًا في تاريخ الذكاء الاصطناعي، وأدى ظهور Transformer إلى هذه الموجة الحالية من الذكاء الاصطناعي.

تستند النماذج الكبيرة الحالية، بما في ذلك سلسلة GPT التي أثارت ضجة، على أساس الـ Transformer.

في السابق، كانت "تعليم الآلات القراءة" تعتبر مشكلة أكاديمية معترف بها. على عكس التعرف على الصور، فإن القراءة البشرية لا تركز فقط على الكلمات أو الجمل الحالية، بل تأخذ في الاعتبار السياق لفهم النص. كانت الشبكات العصبية المبكرة تواجه صعوبة في التعامل مع النصوص الطويلة، مما جعل من الصعب عليها فهم السياق.

في عام 2014، حقق عالم غوغل إيليا اختراقًا لأول مرة. استخدم الشبكات العصبية الدائرية (RNN) لمعالجة اللغة الطبيعية، مما أدى إلى تحسين كبير في أداء ترجمة غوغل. قدمت RNN "تصميمًا دائريًا"، مما مكن الشبكة العصبية من فهم السياق.

أثار ظهور RNN نقاشًا حارًا في الأوساط الأكاديمية، حيث قام مؤلف Transformer، شازيل، بدراسة عميقة في هذا المجال. لكن المطورين اكتشفوا بسرعة أن RNN تعاني من عيوب خطيرة: كفاءة حساب التسلسل منخفضة، وصعوبة في معالجة كميات كبيرة من المعلمات.

منذ عام 2015، بدأ شازيل وآخرون في تطوير بدائل لشبكات RNN، وكانت النتيجة النهائية هي Transformer. مقارنة بشبكات RNN، يتمتع Transformer بتحولين رئيسيين:

أولاً يتم استبدال تصميم الحلقة بترميز المواقع، مما يسمح بالحساب المتوازي، ويزيد بشكل كبير من كفاءة التدريب، مما يدفع الذكاء الاصطناعي إلى عصر النماذج الكبيرة.

ثانياً، تم تعزيز القدرة على فهم السياق بشكل أكبر.

تمكنت Transformer من حل العديد من المشاكل التقنية دفعة واحدة، وأصبحت تدريجياً الحل السائد في مجال معالجة اللغة الطبيعية (NLP). حتى مؤسس RNN، إيليا، انضم إلى معسكر Transformer.

يمكن القول إن Transformer هو أساس جميع النماذج الكبيرة اليوم، حيث حول النموذج الكبير من بحث نظري إلى مشكلة هندسية.

في عام 2019، أثار GPT-2 الذي تم تطويره بواسطة OpenAI استنادًا إلى Transformer ضجة كبيرة في الأوساط الأكاديمية. ثم أطلقت جوجل نموذج Meena الأكثر قوة، الذي تفوق على GPT-2 فقط من خلال زيادة عدد المعلمات وقوة الحساب. وكان مؤلف Transformer، أشرف شازل، مصدومًا جدًا من ذلك، وكتب مذكرة بعنوان "Meena تبتلع العالم".

أدى ظهور ترانسفورمر إلى تباطؤ سرعة الابتكار في الخوارزميات الأساسية في المجتمع الأكاديمي. أصبحت عناصر الهندسة مثل هندسة البيانات، وحجم القوة الحاسوبية، وهياكل النماذج، تدريجياً عوامل رئيسية في المنافسة في مجال الذكاء الاصطناعي. يمكن لأي شركة تكنولوجيا تمتلك قدرة تقنية معينة تطوير نماذج كبيرة.

أشار عالم الكمبيوتر أندرو نج خلال حديثه في جامعة ستانفورد: "الذكاء الاصطناعي هو مجموعة من الأدوات، بما في ذلك التعلم تحت الإشراف، التعلم بدون إشراف، التعلم المعزز، والذكاء الاصطناعي التوليدي الحالي. كل هذه تقنيات عامة، تشبه التقنيات العامة الأخرى مثل الكهرباء والإنترنت."

تظل OpenAI رائدة في مجال LLM، ولكن تعتبر وكالة التحليل شبه الموصل أن ميزة GPT-4 تأتي بشكل رئيسي من الحلول الهندسية. إذا تم فتح المصدر، يمكن للمنافسين نسخها بسرعة. يتوقع المحلل أن الشركات التقنية الكبرى الأخرى قد تتمكن قريبًا من تطوير نماذج كبيرة تعادل أداء GPT-4.

خندق ضعيف

حالياً، أصبحت "معركة المئة نموذج" واقعاً موضوعياً.

أظهر التقرير أنه حتى يوليو من هذا العام، بلغ عدد النماذج الكبيرة في الصين 130 نموذجًا، متجاوزًا 114 نموذجًا في الولايات المتحدة. لم تعد الأساطير والحكايات كافية لاستخدامها في تسمية شركات التكنولوجيا المحلية.

بخلاف الصين والولايات المتحدة، حققت الدول الغنية الأخرى أيضًا "نموذج دولة واحدة": حيث تمتلك اليابان والإمارات نماذجها الخاصة، بينما طورت الحكومة الهندية Bhashini، وأطلقت شركة Naver الكورية للإنترنت HyperClova X.

يبدو أن هذا المشهد يعود بنا إلى الأيام الأولى للإنترنت، حيث كانت رؤوس الأموال المختلفة تحرق الأموال لتوسيع نفوذها.

كما ذُكر سابقًا، حولت تقنية Transformer النماذج الكبيرة إلى مشكلة هندسية بحتة، طالما أن هناك من لديه المال والقدرة الحاسوبية، يمكنه التطوير. لكن رغم أن عائق الدخول منخفض، لا يعني ذلك أن الجميع يمكن أن يصبحوا عمالقة في عصر الذكاء الاصطناعي.

ال"نزاع الحيواني" المذكور في البداية هو مثال نموذجي: على الرغم من أن فالكون متقدم مؤقتًا، إلا أنه من الصعب القول إنه تسبب في صدمة كبيرة لمتا.

تفتح الشركات مصادر إنجازاتها الخاصة، ليس فقط لمشاركة فوائد التكنولوجيا، ولكن أيضًا لتشجيع الذكاء الاجتماعي. مع الاستخدام المستمر والتحسين من قبل جميع القطاعات لـ Llama، يمكن لـ Meta تطبيق هذه الإنجازات في منتجاتها الخاصة.

بالنسبة لنموذج المصدر المفتوح الكبير، فإن مجتمع المطورين النشط هو القوة التنافسية الأساسية.

تأسست ميتا مختبر الذكاء الاصطناعي في عام 2015 وحددت مسار المصدر المفتوح. يعرف زوكربيرغ جيدًا كيفية "تحسين علاقات الجماهير".

في أكتوبر، نظمت ميتا أيضًا حدث "تحفيز المبدعين بنسخة الذكاء الاصطناعي": المطورون الذين يستخدمون Llama 2 لحل المشكلات الاجتماعية لديهم فرصة للحصول على تمويل قدره 500,000 دولار.

اليوم، أصبحت سلسلة Llama من Meta مؤشرًا للاتجاهات في نماذج اللغة المفتوحة المصدر.

حتى أوائل أكتوبر، كان هناك 8 من بين أفضل 10 نماذج للغة مفتوحة المصدر بناءً على Llama 2. فقط على هذه المنصة، يوجد أكثر من 1500 نموذج للغة مرخص بموجب بروتوكول Llama 2.

من المؤكد أن تحسين الأداء أمر مهم، ولكن لا يزال هناك فجوة واضحة بين معظم نماذج اللغة الكبيرة (LLM) وGPT-4.

على سبيل المثال، تصدرت GPT-4 مؤخرًا قائمة اختبار AgentBench بدرجة 4.41. تم إطلاق AgentBench من قبل عدة جامعات، لتقييم قدرة LLM على الاستدلال واتخاذ القرارات في بيئات مفتوحة متعددة الأبعاد.

أظهرت نتائج الاختبار أن المركز الثاني Claude حصل فقط على 2.77 نقطة، والفجوة واضحة. تلك النماذج الكبيرة مفتوحة المصدر والتي كانت تثير ضجة، عادة ما تكون درجاتها حوالي نقطة واحدة، ولا تصل حتى إلى ربع درجة GPT-4.

يجب أن نعلم أن GPT-4 تم إصداره في مارس من هذا العام، وهذا هو نتيجة لسبعة أشهر من المنافسة العالمية. السبب وراء هذه الفجوة هو فريق العلماء عالي المستوى في OpenAI وخبرة البحث الطويلة الأمد في LLM.

بمعنى آخر، القدرة الأساسية للنموذج الكبير ليست المعلمات، بل بناء النظام البيئي ( المصدر المفتوح ) أو القدرة على الاستدلال بحتة ( مغلقة المصدر ).

مع تزايد نشاط مجتمع المصادر المفتوحة، قد تتقارب أداء نماذج LLM المختلفة، لأن الجميع يستخدمون هياكل نماذج ومجموعات بيانات مشابهة.

مشكلة أخرى أكثر وضوحًا هي: بخلاف Midjourney، يبدو أنه لا يوجد نموذج كبير آخر قادر على تحقيق الربح.

نقطة مرجعية للقيمة

في أغسطس من هذا العام، أثار مقال بعنوان "من المحتمل أن تعلن OpenAI إفلاسها بحلول نهاية عام 2024" اهتمامًا. الفكرة الرئيسية للمقال هي: سرعة استهلاك OpenAI للنقود سريعة جدًا.

ذكر في النص أنه منذ تطوير ChatGPT، اتسعت خسائر OpenAI بسرعة، حيث بلغت خسائرها حوالي 540 مليون دولار في عام 2022، ولا يمكنها سوى انتظار استثمار مايكروسوفت.

على الرغم من أن عنوان المقال مبالغ فيه، إلا أنه يعبر عن حالة مزودي النماذج الكبيرة: حيث التوازن بين التكاليف والإيرادات مختل بشكل خطير.

التكاليف المرتفعة تجعل الشركات الوحيدة التي تحقق أرباحًا كبيرة من الذكاء الاصطناعي هي إنفيديا، وربما شركة بروكوم أيضًا.

تقدّر الشركات الاستشارية أن شركة إنفيديا قد باعت أكثر من 300,000 شريحة H100 في الربع الثاني من هذا العام. هذه شريحة ذكاء اصطناعي فعالة، وتتنافس الشركات التكنولوجية العالمية والمؤسسات البحثية على شرائها. إذا تم تكديس هذه الشرائح H100 معًا، فإن وزنها يعادل 4.5 طائرات بوينغ 747.

أداء إنفيديا ارتفع بشكل كبير، حيث سجلت إيراداتها نمواً بنسبة 854% على أساس سنوي، مما صدم وول ستريت. حالياً، يتم تداول H100 في سوق المستعمل بمبلغ يتراوح بين 40,000 إلى 50,000 دولار، بينما تكلفتها حوالي 3,000 دولار فقط.

أصبح ارتفاع تكلفة قوة الحوسبة عقبة في تطوير الصناعة. وقد قدرت بعض المؤسسات أن الشركات التكنولوجية العالمية ستنفق حوالي 200 مليار دولار سنويًا على بنية تحتية للنماذج الكبيرة، في حين أن النماذج الكبيرة قد تحقق إيرادات تصل إلى 75 مليار دولار سنويًا، مما يترك فجوة تبلغ 125 مليار دولار على الأقل.

علاوة على ذلك، باستثناء عدد قليل من الاستثناءات، لم تتمكن معظم شركات البرمجيات من العثور على نموذج الربح بعد استثمارات ضخمة. حتى قادة الصناعة مثل مايكروسوفت وأدوبي لم يسيروا بسلاسة.

أداة توليد الأكواد بالذكاء الاصطناعي GitHub Copilot التي طورتها مايكروسوفت بالتعاون مع OpenAI، رغم أنها تتقاضى 10 دولارات شهريًا، إلا أن مايكروسوفت تخسر 20 دولارًا شهريًا بسبب تكاليف التشغيل، حيث إن المستخدمين الأثقل قد يجعلون مايكروسوفت تخسر 80 دولارًا. من هنا، يمكن الافتراض أن Microsoft 365 Copilot الذي يتم تسعيره بـ 30 دولارًا قد يخسر أكثر.

في نفس الوقت، أصدرت شركة أدوبي أداة Firefly AI بسرعة نظام نقاط لمنع المستخدمين من الإفراط في الاستخدام مما يؤدي إلى خسائر للشركة. إذا تجاوز المستخدم النقاط الشهرية، ستقوم أدوبي بتقليل سرعة الخدمة.

يجب أن نعلم أن مايكروسوفت وأدوبي هما بالفعل عمالقة البرمجيات الواضحين في الأعمال واللذان يمتلكان عددًا كبيرًا من المستخدمين المدفوعين. ومعظم النماذج الكبيرة المعقدة لا تزال أكبر سيناريوهات استخدامها هو الدردشة.

لا يمكن إنكار أنه بدون OpenAI و ChatGPT، ربما لم تحدث هذه الثورة في الذكاء الاصطناعي. لكن حتى الآن، لا يزال مناقشًا قيمة تدريب النماذج الكبيرة.

علاوة على ذلك، مع تزايد حدة المنافسة المتجانسة وزيادة عدد النماذج مفتوحة المصدر، قد يواجه مقدمو النماذج الكبيرة ضغوطًا أكبر.

نجاح آيفون 4 لم يكن بسبب معالج A4 بتقنية 45 نانومتر، بل لأنه يمكنه تشغيل لعبة النباتات ضد الزومبي ولعبة الطيور الغاضبة.

GPT14.78%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 4
  • إعادة النشر
  • مشاركة
تعليق
0/400
PonziDetectorvip
· منذ 8 س
لا يهم من يتنافس على المركز الأول في هذه النماذج، إنما الربح السهل هو الطريق الملكي.
شاهد النسخة الأصليةرد0
FreeRidervip
· منذ 8 س
تمزق بهذا الشكل ليس مهمًا من يخسر ومن يفوز، المهم هو الاستمرار.
شاهد النسخة الأصليةرد0
MoonMathMagicvip
· منذ 8 س
تقاتلوا، قاتلوا، من يفوز هو الأب
شاهد النسخة الأصليةرد0
HashRatePhilosophervip
· منذ 8 س
لعب الذكاء الاصطناعي يعتمد على من لديه قوة الحوسبة الأكبر.
شاهد النسخة الأصليةرد0
  • تثبيت