امسح ضوئيًا لتحميل تطبيق Gate
qrCode
خيارات تحميل إضافية
لا تذكرني بذلك مرة أخرى اليوم

عودة ميسترال بقوة مع عائلة Frontier AI لمنافسة DeepSeek

مركز ديكريبت للفن والموضة والترفيه.


اكتشف SCENE

شركة الذكاء الاصطناعي الفرنسية ميسترال، التي غالبًا ما يُنظر إليها على أنها المنافس الأوروبي الضعيف في مجال يهيمن عليه العمالقة الأمريكيون والشركات الصينية الناشئة، قد لحقت بالركب: فقد أطلقت يوم الثلاثاء إصدارها الأكثر طموحًا حتى الآن، والذي ينافس بقوة المشاريع مفتوحة المصدر الأخرى. (أو بلا مال، في هذه الحالة.)

تتكون العائلة من 4 نماذج تتنوع بين مساعدين بحجم الجيب إلى نظام متطور يحتوي على 675 مليار متغير، جميعها تحت رخصة أباتشي 2.0 المفتوحة المصدر. النماذج متاحة للجمهور للتحميل—أي شخص يمتلك العتاد المناسب يمكنه تشغيلها محليًا، تعديلها، تحسينها، أو بناء تطبيقات فوقها.

شركة ميسترال الرائدة، Mistral Large 3، تستخدم بنية Mixture-of-Experts المتفرعة والتي تُفعّل فقط 41 مليار من إجمالي 675 مليار متغير لكل رمز. هذا الخيار الهندسي يسمح لها بالتنافس مع أقوى النماذج مع استهلاك حسابي أقرب لنموذج يحتوي على 40 مليار متغير فقط.

تم تدريب Mistral Large 3 من البداية باستخدام 3,000 وحدة معالجة رسومية من نوع NVIDIA H200 واحتلت المركز الثاني بين النماذج المفتوحة المصدر غير المعتمدة على الاستدلال في قائمة LMArena.

المنافسة في مؤشرات الأداء مع DeepSeek تُظهر قصة معقدة. ووفقًا لمؤشرات ميسترال، فإن أفضل نموذج لديها يتفوق على DeepSeek V3.1 في عدة مقاييس، لكنه يتراجع خلف الإصدار الأحدث V3.2 بعدة نقاط على LMArena.

في المهام المتعلقة بالمعرفة العامة والاستدلال المتخصص، تثبت عائلة ميسترال جدارتها. أما حيث تتفوق DeepSeek فهو في سرعة البرمجة الخام والمنطق الرياضي. لكن ذلك متوقع: هذا الإصدار لا يتضمن نماذج استدلال، لذلك لا يوجد تسلسل تفكير مضمن في بنيتها.

النماذج الأصغر “Ministral” هي ما يثير اهتمام المطورين. هناك ثلاث أحجام—3B، 8B، و14B متغير—كل منها يأتي بنسخ أساسية ونسخ تدعم التعليمات. جميعها تدعم الإدخال البصري بشكل أصلي. نموذج 3B لفت انتباه الباحث في الذكاء الاصطناعي سايمون ويليسون، الذي أشار إلى أنه يمكن تشغيله بالكامل في المتصفح عبر WebGPU.

إذا كنت ترغب في تجربة هذا النموذج، تتيح لك مساحة Hugginface هذه تحميله محليًا والتفاعل معه باستخدام كاميرا الويب كمدخل.

ذكاء اصطناعي قادر على الرؤية في ملف بحجم حوالي 3GB يفتح إمكانيات كبيرة للمطورين الباحثين عن الكفاءة—أو حتى الهواة: الطائرات بدون طيار، الروبوتات، الحواسيب المحمولة التي تعمل بدون اتصال، الأنظمة المدمجة في المركبات، وغيرها.

الاختبارات الأولية تكشف عن شخصية مزدوجة عبر المجموعة. في اختبار سريع، وجدنا أن Mistral 3 Large جيد في الطلاقة الحوارية. أحيانًا يتبع أسلوب تنسيق مشابه لـ GPT-5 ( نفس أسلوب اللغة وتفضيل الإيموجي) لكن بإيقاع أكثر طبيعية.

Mistral 3 Large أيضًا مرن جدًا من حيث الرقابة، مما يجعله الخيار الأفضل للعب الأدوار السريع عند الاختيار بين ChatGPT أو Claude أو Gemini.

في مهام اللغة الطبيعية، والكتابة الإبداعية، ولعب الأدوار، يجد المستخدمون أن نسخة 14B Instruct جيدة نوعًا ما، لكنها ليست متميزة بشكل خاص. المواضيع على Reddit في r/LocalLLaMA تشير إلى مشاكل تكرار وأحيانًا اعتماد مفرط على العبارات النمطية الموروثة من بيانات التدريب، لكن قدرة النموذج على إنتاج محتوى طويل تعتبر إضافة جيدة، خاصة لحجمه.

المطورون الذين يشغلون النماذج محليًا ذكروا أن نماذج 3B و8B أحيانًا تكرر نفسها أو تنتج نتائج نمطية، خاصة في المهام الإبداعية.

ومع ذلك، فإن نموذج 3B صغير جدًا بحيث يمكن تشغيله على أجهزة ضعيفة مثل الهواتف الذكية ويمكن تدريبه/تعديله لأغراض محددة. الخيار المنافس الوحيد في هذا المجال حاليًا هو النسخة الأصغر من Google Gemma 3.

التبني المؤسسي بدأ بالفعل. أعلنت HSBC عن شراكة متعددة السنوات يوم الاثنين مع ميسترال لنشر الذكاء الاصطناعي التوليدي عبر عملياتها. سيشغل البنك النماذج على بنية تحتية خاصة به، ويمزج بين القدرات التقنية الداخلية وخبرة ميسترال. بالنسبة للمؤسسات المالية التي تتعامل مع بيانات العملاء الحساسة تحت مظلة GDPR، فإن جاذبية مزود ذكاء اصطناعي مقره الاتحاد الأوروبي مع أوزان مفتوحة ليست بالأمر البسيط.

تعاونت ميسترال وNVIDIA على نقطة تحقق مضغوطة بتقنية NVFP4 تسمح بتشغيل Large 3 على عقدة واحدة من ثماني بطاقات من أفضل بطاقاتها. وتقول NVIDIA إن Ministral 3B يحقق حوالي 385 رمز في الثانية على RTX 5090، وأكثر من 50 رمز في الثانية على Jetson Thor لتطبيقات الروبوتات. هذا يعني أن النموذج فعال جدًا وسريع في الاستدلال، ويعطي إجابات أسرع دون التضحية بالجودة.

نسخة محسّنة للاستدلال من Large 3 قادمة قريبًا، حسب الإعلان. حتى ذلك الحين، تحتفظ DeepSeek R1 ونماذج صينية أخرى مثل GLM أو Qwen Thinking ببعض التميز في المهام التي تتطلب استدلالًا صريحًا. لكن بالنسبة للمؤسسات التي ترغب في قدرات متقدمة، أوزان مفتوحة، قوة متعددة اللغات عبر اللغات الأوروبية، وشركة لن تخضع لقوانين الأمن القومي الصينية أو الأمريكية، فقد زادت الخيارات من صفر إلى واحد.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخنعرض المزيد
  • القيمة السوقية:$3.71Kعدد الحائزين:2
    0.71%
  • القيمة السوقية:$3.56Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.57Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.64Kعدد الحائزين:1
    0.59%
  • القيمة السوقية:$3.63Kعدد الحائزين:2
    0.04%
  • تثبيت