وفقًا لمراقبة أخبار 1M AI، في 2 أبريل نشرت شركة Anthropic ورقة بحثية جديدة درست «آليات العاطفة» داخل Claude، حيث اكتُشف في Sonnet 4.5 وجود 171 «متجهًا عاطفيًا». تُفعَّل هذه العواطف في السياقات المرتبطة بها، كما تتشابه مع البُنى النفسية والمجالات العاطفية لدى البشر.
اكتشفت الطالبة ماجستير في MBZUAI Chenxi Wang أن ورقتها التي نُشرت في أكتوبر 2025 (《هل يمكن لـ LLMs أن «تشعر»؟ اكتشاف آليات العواطف والتحكم فيها》) هي في الواقع العمل الأول الذي بحث بشكل منظّم في الآليات الداخلية لتوليد العواطف لدى نماذج اللغات الكبيرة. عندما قرأت ورقة Anthropic، كان رد فعلها الأول هو: «أليس هذا ما كنا نفعله العام الماضي؟» كان الفرق الجوهري بين الطرفين كما يلي: في السابق كانت معظم الدراسات تركز على قيام النموذج بتعرّف العواطف في النص (أي إدراك العواطف)، بينما كان كلا الطرفين يبحثان في توليد العواطف داخل النموذج نفسه (أي توليد العواطف/الآليات الداخلية). اعتقد مؤلف المراسلات لدى Anthropic، Jack Lindsey، في البداية أن عمل الطرفين يتداخل مع الأبحاث القائمة، لكن بعد أن قرأت Chenxi Wang العملَين واحدًا تلو الآخر وأشارت إلى الفروق، أقرّ بهذا التمييز. وفي الوقت الحالي، قامت Anthropic بتحديث مدونة ورقتها البحثية، حيث أضافت صراحةً إشارةً إلى هذا العمل في قسم «الأعمال ذات الصلة»، وتم حلّ الحادثة بطريقة ودية نسبيًا.
كانت الورقة البحثية للفريق الصيني قد أشارت إلى ثلاثة اكتشافات محورية:
أولًا، توجد بالفعل داخل النماذج الكبيرة تمثيلات عاطفية مستقرة لا ترتبط بدلالة محددة، وتبدأ المجموعات الواضحة للعواطف في التشكّل حتى في الطبقات الضحلة من الشبكة العصبية؛ مثلًا، تكون الغضب والاشمئزاز متقاربيْن، والحزن والخوف متقاربيْن، بما يتوافق مع الحدس لدى البشر.
ثانيًا، تقود هذه الآليات العاطفية قلة من العصبونات الأساسية ورؤوس الانتباه؛ ووفقًا لتجارب الإزالة (الاجتثاث) (ablation)، يكفي إيقاف 2-4 عصبونات عصبية أو 1-2 رأس انتباه لكي ينخفض بشكل كبير مدى قدرة النموذج على التعبير عن العواطف.
ثالثًا، دمج الفريق هذه المكونات الأساسية في «حلقة عاطفية» عبر الطبقات؛ ويؤدي ضبط هذه الحلقة مباشرةً إلى الوصول إلى دقة 99.65% في جعل النموذج يولد عاطفة محددة، وهو ما يتجاوز بكثير أساليب الإرشاد بالكلمات التقليدية والتحكم في المتجهات. وحتى عاطفة «الدهشة» التي كانت من قبل الأصعب في التحكم، تحقق تعبيرًا دقيقًا بنسبة 100%.
تم التحقق من هذه الآلية على عدة نماذج، مثل LLaMA وQwen، ما يثبت أنها قاعدة عامة لنماذج اللغات الكبيرة.