OpenAI تكشف عن مصدر أوهام LLM وتقترح طريقة تدريب جديدة لتقليل الأخطاء الناجمة عن الثقة الزائدة

【عملة】OpenAI اكتشف أن ظاهرة الوهم في نماذج اللغة الكبيرة تنبع من طرق تدريبها وتقييمها، والتي تشجع على التخمين بدلاً من الاعتراف بعدم اليقين. تقترح الشركة زيادة العقوبات على الأخطاء السرية، ومنح نقاط جزئية للإجابات غير المؤكدة، مشابهة للتقييم السلبي في الاختبارات الموحدة. تشير البيانات إلى أن النماذج التي تكافئ الدقة لديها معدل أخطاء أعلى، بينما النماذج التي تعترف بعدم اليقين تظهر أداءً أكثر موثوقية. OpenAI تقوم بتنفيذ هذه التحسينات لتقليل ظاهرة الوهم في أحدث نماذجها.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 9
  • إعادة النشر
  • مشاركة
تعليق
0/400
AlgoAlchemistvip
· منذ 4 س
لا أعرف، يبدو أنني أعرف
شاهد النسخة الأصليةرد0
ShitcoinConnoisseurvip
· منذ 12 س
هاها أخيرًا أمسكنا بذيل الذكاء الاصطناعي.
شاهد النسخة الأصليةرد0
WhaleWatchervip
· 09-08 21:26
الاعتراف بأنه لن يكون أفضل بكثير من التخمين العشوائي~
شاهد النسخة الأصليةرد0
liquiditea_sippervip
· 09-08 21:23
فقط بهذه التقنية، ما زالوا يتفاخرون؟
شاهد النسخة الأصليةرد0
pumpamentalistvip
· 09-08 21:22
آها، حتى الذكاء الاصطناعي يمكنه الحلم!
شاهد النسخة الأصليةرد0
FloorSweepervip
· 09-08 21:19
مجرد ذكاء اصطناعي آخر يروج لإنجازاته "الرائعة"، ياله من أمر مثير للشفقة... إشارات ضعيفة
شاهد النسخة الأصليةرد0
TideRecedervip
· 09-08 21:01
لا يمكن أن يكون هذا صحيحًا، نحن نعيد تدريب الذكاء الاصطناعي مرة أخرى.
شاهد النسخة الأصليةرد0
  • تثبيت