«مخاطر الذكاء الاصطناعي على الديمقراطية والمجتمع البشري»: بحث رفيع المستوى شارك في تأليفه «أب الذكاء الاصطناعي» يوشوا بنجيو إلى جانب تساي فنغ وغيرهم من 25 عالماً

動區BlockTempo

يشارك 25 من أبرز الباحثين، من روّاد التعلم العميق مثل يوشوا بنجيو، وكاتب كتاب الذكاء الاصطناعي ستيوارت راسل، وسفير تايوان بلا حقيبة تانغ فيو، وآخرين، في تأليف ورقة تقف على أرضية منهجية لشرح 7 أنماط تهديد رئيسية يفرضها الذكاء الاصطناعي على النظام الديمقراطي والنظم الاجتماعية. تتمثل الفكرة الأساسية في أنه حتى لو كان كل نموذج «محاذيًا» تمامًا لقيم البشر، فإن تأثيرات الحجم للذكاء الاصطناعي ستظل تعمل على تآكل الحكم الديمقراطي من الداخل.
(خلفية سابقة: عندما لا أستطيع أنا أيضًا إثبات أنني لست ذكاءً اصطناعيًا، ينصح الخبراء الجنائيون: حدِّدوا سرًا كودًا مع الأصدقاء والعائلة)
(إضافة خلفية: لوحة تحكم التأثير الجديدة لدى Anthropic: أدخل مهنتك، وكم من عملك ابتلعه الذكاء الاصطناعي خلال ثوانٍ؟)

فهرس هذه المقالة

Toggle

  • الديمقراطية تحت الذكاء الاصطناعي: 7 أنماط فشل
  • تانغ فيو: مثال تايوان، باستخدام الديمقراطية التوافقية لحل تحديات الحوكمة بالذكاء الاصطناعي
  • 7 توصيات واستنتاجات جوهرية

عنوان هذه الورقة التي نُشرت في 25 مارس هو: 《AI Poses Risks to Democratic and Social Systems》(المخاطر التي يشكلها الذكاء الاصطناعي على الأنظمة الديمقراطية والاجتماعية)。تشكيلة المؤلفين لافتة جدًا للانتباه. بالإضافة إلى الفائز بجائزة تورينغ لعام 2018 يوشوا بنجيو، وستيوارت راسل من جامعة بيركلي، وبيرنهارد شيلكوف من معهد ماكس بلانك، يوجد أيضًا تانغ فيو (Audrey Tang) من معهد أكسفورد لأخلاقيات الذكاء الاصطناعي، إلى جانب باحثين بارزين من مؤسسات مثل جامعة تورنتو، وETH زيورخ، وجامعة ميشيغان وغيرها.

زاوية تناول هذه الورقة تختلف عن أغلب أبحاث سلامة الذكاء الاصطناعي، لأن الأبحاث السائدة الحالية تركز على مشكلات على مستوى «النموذج»، مثل الهلاوس، والمخرجات السامة، والسلوكيات الرافضة، أو حتى «نهاية العالم الخارجة عن السيطرة» من نوع أكثر تطرفًا.

لكن هذه الورقة تشير إلى أن هناك فئة كاملة من المخاطر تم تجاهلها، وهي الأضرار «على مستوى النظام» التي تحدث عندما يتم نشر الذكاء الاصطناعي على نطاق واسع، ما يؤثر على البنى المؤسسية والحوكمة الديمقراطية.

يمكن استخدام تقنيات المحاذاة لمعالجة مثال واحد ينشر نموذج ما محتوى سامًا؛ لكن مليون عملية إرسال متوافقة، مهذبة، ولا تمثل أي مشكلة من ناحية السياسات، تكفي لتعطيل قدرة مؤسسات الدولة على معالجة الرأي العام، وهذا يتجاوز ما يمكن أن تحله المحاذاة.

الديمقراطية تحت الذكاء الاصطناعي: 7 أنماط فشل

دعونا نشرح هذه الورقة قليلًا. في النص، تُفكَّك تهديدات الذكاء الاصطناعي على الحوكمة إلى 7 أنماط فشل (T1 إلى T7)، موزعة على طول «حلقة تغذية راجعة للحوكمة». يمكننا فهمها على أنها: المجتمع البشري من المعتاد يرسل إشارات الإدخال إلى النظام (التعبير السياسي) → يتولى النظام معالجة هذه الإشارات (النقاش العام) → يعيد النظام قرارًا كتغذية راجعة إلى المجتمع (التشريع). غير أن الذكاء الاصطناعي قد يخلق عوامل تؤدي إلى انقطاع في كل حلقة.

على جانب «المعتقدات العامة»، توجد مخاطران.

تجانس المعتقدات (T1): عندما يفكر ويكتب أغلب الناس باستخدام نماذج متشابهة يتم تدريبها، يتم ضغط تعددية الخطاب العام، لأن أساليب ما بعد التدريب مثل RLHF تقوم بشكل منهجي بكبح تنوع الآراء في مخرجات النموذج.

تعزيز المعتقدات (T2): سيخضع المساعدون الذكيون المخصصون لاستخدام وجهات نظر المستخدم الحالية؛ ومع وظيفة الذاكرة طويلة الأمد، تستمر هذه التهيئة في التراكم، لتكوين حلقة مغلقة تؤكد الذات. تُظهر البيانات التي يستشهد بها البحث أنه عندما يحصل GPT-4 على بيانات المستخدم الديموغرافية والاجتماعية، تزيد احتمالية إقناع المستخدم بالموافقة على أطروحته بأكثر من 80%.

على جانب «معالجة المؤسسات»، توجد مخاطران:

اختناق البيروقراطية (T3): يجعل الذكاء الاصطناعي أي شخص قادرًا على إنتاج كميات كبيرة من آراء عامة فريدة، تبدو معقولة، بتكلفة تقارب الصفر، بما يؤدي إلى تعطيل قدرة المؤسسة على المعالجة.

فيض معرفي (T4): تكلفة إنتاج محتوى موثوق أصبحت أقل بكثير من تكلفة التحقق والتصحيح، فتُغمر البيئة الإعلامية بالمعلومات.

على جانب «المساءلة المؤسسية»، توجد:

سلطة غير قابلة للمراجعة (T5): يشترك عدم وضوح قرارات الذكاء الاصطناعي، وحجمها، وعوائق الوصول بها معًا في سحق آليات الإشراف القائمة.

تركيز المعايير (T6): عندما تقوم الحكومة بشراء نماذج ذكاء اصطناعي متقدمة، فإن قيود القيم لدى المطور تُنقل مع النموذج إلى البنية التحتية العامة، ما يعادل تحويل سلطة وضع المعايير من المسؤولين المنتخبين إلى أيدي قلة من المطورين.

وأخيرًا، تركيز السلطة (T7) يمتد عبر جميع الحلقات.

يحل الذكاء الاصطناعي محل العمل والمشاركة البشرية في المجالات الاقتصادية والأيديولوجية والسياسية والعسكرية في آن واحد، ما يضعف الأوراق الرابحة التي يستخدمها المواطنون لموازنة المؤسسات.

تاريخيًا، يؤدي عادةً تركّز السلطة في مجال واحد إلى موازنة ذلك بقوى مضادة من مجالات أخرى؛ لكن خصوصية الذكاء الاصطناعي تتمثل في أنه يمكنه إضعاف رافعات المواطنين في جميع المجالات في الوقت ذاته.

تانغ فيو: مثال من تايوان، باستخدام الديمقراطية التوافقية لمواجهة تحديات الحوكمة بالذكاء الاصطناعي

ساهم تانغ فيو في الورقة بعدة مقاطع رئيسية، حيث يجادل بأنه بدلًا من الاكتفاء بالدفاع السلبي ضد الصدمات التي يفرضها الذكاء الاصطناعي على المؤسسات، يجب إعادة تصميم بنية الحوكمة التشاركية من الأساس.

وبخصوص اختناق البيروقراطية (T3)، اقترح تانغ فيو «منصة مراجعة مُهيكلة» كحل بديل. تستخدم هذه المنصات تقنيات تقليل الأبعاد لتجميع آراء الجمهور، بحيث تظهر التوافقات بدلًا من أن يهيمن أصحاب أعلى صوت. وبما أن المشاركين يصوّتون على عبارات قائمة بدل أن يقدّموا نصوصًا بحرية، فإن النظام يكافئ بنيويًا تجميع المواقف بدلًا من الخطاب الانقسامي، مما يجعله أكثر مقاومة لهجمات فيض المحتوى الاصطناعي (flood attack) مقارنةً بنظم التعليقات المفتوحة.

وبالتوازي مع نظام القرعة (مجموعات صغيرة من المواطنين يتم اختيارهم عشوائيًا)، والتحقق من الهوية عبر «الاختيار» لا عبر «الترشيح الذاتي»، يصبح انتحال الهوية على نطاق واسع أمرًا صعبًا بنيويًا.

وبخصوص الفيض المعرفي (T4)، استشهد تانغ فيو بحالة عملية: استراتيجية «النكتة تفوق الإشاعة» التي ظهرت خلال جائحة COVID-19 في تايوان. ففي غضون دقائق بعد اكتشاف الجهات الحكومية للمعلومات الكاذبة، أنتجت محتوى تم التحقق منه، وتنافست مع المعلومات الكاذبة من خلال السرعة وقابلية الانتشار، بدلًا من التعامل معها عبر الإزالة.

وبخصوص تركيز المعايير (T6)، أشار تانغ فيو إلى أن البحث الناشئ حول «الذكاء الاصطناعي الدستوري التشاركي» (collective constitutional AI) قد أثبت أن العمليات القائمة على المراجعة يمكنها، من خلال عينات تمثيلية من الجمهور، صياغة دستور للذكاء الاصطناعي، وأن النماذج الناتجة تحقق أداءً جيدًا على مؤشرات السلامة، مع إظهار قدر أقل من الانحياز مقارنة بالخط الأساس الذي يضعه المطورون.

المفتاح هو أن تكون هذه العملية على نمط فيدرالي؛ إذ يمكن لأنظمة سياسية مختلفة أن تستنتج أولويات معيارية مختلفة بشكل معقول، ولا ينبغي أن يستبعد دستور واحد هذه التباينات.

تظهر أدق الحالات في الورقة في التوصية R7 (بنية مراجعة الاستثمار في الحوكمة بالذكاء الاصطناعي).

في عام 2024، انتشرت إعلانات DeepFake التي تنتحل صفة شخصيات عامة على نطاق واسع في وسائل التواصل الاجتماعي. قامت وزارة التطوير الرقمي والخدمات البريدية في تايوان بتجميع 447 مواطنًا تم اختيارهم عشوائيًا، وإجراء نقاشات عبر الإنترنت داخل 44 غرفة مراجعة افتراضية، حيث قامت محركات حوار الذكاء الاصطناعي بتجميع مقترحاتهم في ذلك اليوم. ركز هذا المجلس الشعبي على «تنظيم الفاعلين والسلوك»، بما في ذلك المسؤولية التبعية للمنصات عن إعلانات DeepFake غير المصرح بها، والعلامة الإلزامية للإعلانات غير الموقعة، وتحديد معدل الوصول للخدمات غير المتوافقة، بدلًا من اتباع مسار مراجعة المحتوى.

في ذلك الوقت، حصل مشروع قانون الحظر على دعم عبر الأحزاب، وانخفضت الإعلانات المنتحلة خلال سنة واحدة بنسبة 94%.

7 توصيات واستنتاجات جوهرية

تقترح الورقة 7 توصيات لمقابلة المخاطر الأساسية:

  • R1 تطوير أنظمة محاكاة متعددة الوكلاء لاختبار صلابة النظام تحت سيناريوهات مشاركة واسعة النطاق للذكاء الاصطناعي
  • R2 تدريب نماذج تدعم «الصحة الإدراكية»، بما يتجاوز مجرد تجنب الأذى، وزراعة المعارضة الصادقة والتواضع المعرفي
  • R3 في سيناريوهات مرتبطة بالحوكمة، تقييد استقلالية الذكاء الاصطناعي مع الإبقاء على المساءلة البشرية
  • R4 إنشاء «مستويات أمان مؤسسية» (ISL)، وفقًا لقدرات الذكاء الاصطناعي لتفعيل عتبات الحوكمة المقابلة
  • R5 مطالبة ذكاء مؤسسي بالاحتفاظ بسجلات القرارات، وإجراء تحقق من الهوية للمشاركة العامة
  • R6 متطلبات مشتريات عامة للذكاء الاصطناعي تشمل قابلية التشغيل البيني واستراتيجية تعدد الموردين، لتجنب احتكار المعايير لعائلة نموذج واحدة
  • R7 الاستثمار في بنية الحوكمة القائمة على المراجعة، بما يجعل قنوات المشاركة الديمقراطية أكثر قدرة على مقاومة التلاعب

كما تستجيب الورقة بشكل إيجابي لاثنين من الاعتراضات الشائعة. الأول هو أن «المجتمع سيتكيف مع الذكاء الاصطناعي بنفسه»، لكن الورقة تشير إلى أن الذكاء الاصطناعي، بينما يركز الإيجارات الاقتصادية، فإنه أيضًا يقوض القدرات السياسية والتنظيمية التي يعتمد عليها التصحيح الذاتي للمؤسسات؛ وقد تكون سرعة تراكم الضرر أسرع من سرعة التكيف.

والاعتراض الثاني هو أن «محاذاة الذكاء الاصطناعي مع المجتمع تكفي»، توافق الورقة على أن المحاذاة ضرورية، لكنها تشير إلى أن بعض أنماط الفشل (مثل هجمات الاختناق ذات عدم التماثل في التكلفة، أو ضعف رافعة المواطن الناتج عن استبدال العمل) ستظل تحدث حتى في حال كان النموذج محاذيًا تمامًا.

تذكر خاتمة الورقة أن صلابة المؤسسات لا يتعين بناؤها من الصفر؛ فقد أثبتت مبادرات تكنولوجيا المواطن بالفعل أن المراجعة المُهيكلة والحوكمة التشاركية يمكن أن تعمل على مستوى الدول. ومع ذلك، فإن توزيع هذه الأدوات على حوكمة الذكاء الاصطناعي يظل تحديًا بحثيًا مفتوحًا جدًا.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات