وفي الوقت الذي كانت فيه المجتمعات الخاصة بالذكاء الاصطناعي تغلي بسبب الجدل حول نماذج Anthropic Mythos من منظور السلامة، أدلى الحائز على جائزة تورينغ، كبير علماء الذكاء الاصطناعي في Meta، Yann LeCun، ببيان مقتضب على منصة X قائلاً: “لن تكون هناك أي جهة واحدة يَتَحمّل عنها أي شخص بعينه ‘المسؤولية’ عن الذكاء الفائق.” وقد حصدت هذه التغريدة 935 إعجاباً وأكثر من 100 ردّ، لتقدّم منظوراً حاكماً مختلفاً جذرياً وسط أجواء الذعر التي أثارتها Mythos.
فلسفة الحوكمة وراء جملة واحدة
يبدو بيان LeCun بسيطاً، لكنه في الواقع يشير مباشرةً إلى خطأ ذهني جوهري في مناقشات حوكمة الذكاء الاصطناعي: تبسيط مخاطر الذكاء الفائق إلى مسألة “من سيتحكم”. عندما يناقش الناس سلامة الذكاء الاصطناعي، تكون السردية الشائعة هي البحث عن “شخص مسؤول”—شركة، أو جهة حكومية، أو قائد تقني لــ"إدارة" اتجاه تطوير الذكاء الاصطناعي. ويرى LeCun أن هذا الافتراض نفسه خاطئ.
ويتوافق هذا الموقف مع فلسفته المفتوحة للذكاء الاصطناعي على نحوٍ متّسق: ينبغي أن تكون حوكمة الذكاء الاصطناعي لا مركزية ومنهجية وبمشاركة أطراف متعددة، لا أن تتمركز بيد أي كيان واحد.
التفكير العكسي في جدل Mythos
يُثير توقيت حديث LeCun فضولاً. في اليوم ذاته، وصف Matt Shumer نموذج Mythos لدى Anthropic بأنه “سلاح على الإنترنت”، بينما عبّر Ethan Mollick عن دهشته بـ “Oh no.” المنطق الكامن وراء هذه ردود الفعل هو: لا بد من إخضاع مثل هذا الذكاء الاصطناعي القوي للسيطرة الصارمة، ويفضل أن تُدار هذه السيطرة من خلال “حارس بوابة” مسؤول واحد.
لكن موقف LeCun يأتي عكس ذلك تماماً—فهو لا يرى أن كون “شركة واحدة تقرر عدم الإطلاق” هو ضمان للسلامة. وإذا كانت قلة من الشركات تمتلك ذكاءً اصطناعياً بمستوى ذكاء فائق، وكان قرار هذه الشركات المنفرد قادراً على تحديد مسار تطور الذكاء الاصطناعي عالمياً، فإن هذا بحد ذاته يُعدّ مخاطرة. فالتحكم المركزي لا يعني السلامة، بل قد يخلق اختلالاً جديداً في توازن القوى.
تحديات الحوكمة اللامركزية
يواجه موقف LeCun تحديات واقعية أيضاً. تبدو الحوكمة اللامركزية مثالية، لكن في ظل الواقع الذي يشهد فيه القدرات في مجال الذكاء الاصطناعي نمواً أُسيّاً، قد يعني “لا أحد مسؤول” “لا أحد يستطيع تحمّل المسؤولية”. عندما يستطيع نموذج ما العثور على ثغرة يوم-صفر، هل يظل الوصول المفتوح أفضل استراتيجية؟
وهذا هو لبّ التناقض في مناقشات حوكمة الذكاء الاصطناعي حالياً: خطر إساءة استخدام السلطة عندما تكون السيطرة مركزية، وخطر إساءة استخدام القدرة عندما تكون مفتوحة ولامركزية. لم تحل جملة LeCun هذا التناقض، لكنها تجبر الناس على إعادة تقييم ما إذا كان حلّ “تعيين شخص ليكون مسؤولاً”—رغم بساطته البديهية—فعلاً قابلاً للتطبيق.
دروس لمناقشات حوكمة الذكاء الاصطناعي
بين حالة الذعر التي أثارتها Mythos والتأمل الهادئ من LeCun، نرى الخلاف الجوهري بين مدرستين في حوكمة الذكاء الاصطناعي: المدرسة التي تركز على السلامة تدافع عن تقييد القدرات والتحكم المركزي، بينما تدافع المدرسة المفتوحة عن إتاحة واسعة ووضع حوكمة لا مركزية. لن تنتهي هذه المناظرة بنتيجة سهلة، لكن بالنسبة لصانعي القرار في تايوان المهتمين بسياسات الذكاء الاصطناعي، فإن فهم هذا التوتر بين الطرفين أمرٌ ضروري لوضع استراتيجية محلية للحوكمة في مجال الذكاء الاصطناعي.
ظهرت هذه المقالة التي يستجيب فيها LeCun لجدل الذكاء الفائق بجملة واحدة لأول مرة على ABMedia.