قامت سيسكو بإطلاق حل مبتكر للوكيل الذكي، ويركز على مساعدة المؤسسات في نشر نظام دفاع آلي بمبدأ "الثقة الصفرية"

ChainNewsAbmedia

كبرى الشركات تبدأ في نشر وكلاء الذكاء الاصطناعي، وأمن المعلومات يصبح أولويًا قبل الاستخدام الواسع لوكلاء الذكاء الاصطناعي. أعلنت شركة سيسكو (Cisco) في مؤتمر RSA للأمان لعام 2026 عن خطة مبتكرة، تركز على أمان الوصول إلى وكلاء الذكاء الاصطناعي، وتدمج إدارة الهوية والتشغيل الآلي للأمان، لبناء دفاعات “عدم الثقة” المتينة للشركات. تقدم المقالة شرحًا للخطة الجديدة التي تتعامل مع تحديات نشر الذكاء الاصطناعي: إدارة الهوية والصلاحيات (IAM)، الدفاع عن الذكاء الاصطناعي (AI Defense)، أداة الدفاع Claw الآلية للكشف، وتنبيهات المراقبة باستخدام Splunk AI.

وظيفة إدارة الهوية والصلاحيات Duo (IAM) لإنشاء مصادقة الهوية

حالياً، تواجه معظم الشركات صعوبة في التعرف على هوية الوكيل وإدارة الصلاحيات بشكل شفاف عند تطبيق وكلاء الذكاء الاصطناعي. توسع شركة سيسكو بنية “عدم الثقة” لتشمل أحمال العمل الخاصة بالذكاء الاصطناعي، من خلال وظيفة إدارة الوصول إلى الهوية Duo (IAM)، التي تطلب من الشركات تسجيل وكلاء الذكاء الاصطناعي لدى المالك المسؤول، لضمان تتبع العمليات. بالإضافة إلى ذلك، يمكن لنظام Cisco Identity Intelligence اكتشاف الهويات غير البشرية تلقائيًا، ومع بروتوكول سياق النموذج (MCP) في الوصول الآمن، تقييد صلاحيات الوكيل ضمن نطاق المهام المحددة، مما يمنع الثغرات الأمنية الناتجة عن عدم فهم أدوات التقليدية لطلب الوكيل وسياقه.

AI Defense: أدوات اختبار أمان النماذج لفريق التطوير

لمواجهة مخاطر التلاعب أو إدخال التعليمات الخبيثة في وكلاء الذكاء الاصطناعي، أطلقت شركة سيسكو أداة خدمة ذاتية تسمى “AI Defense”، تتيح للمطورين وفريق الأمان اختبار مقاومة النماذج قبل النشر. تدعم الأداة تدريبات حمراء ديناميكية للتحقق من مقاومة التطبيقات للمدخلات الخبيثة، وتوليد تقارير الامتثال. كما أطلقت سيسكو حزمة أدوات تطوير البرمجيات (SDK) لنظام تشغيل الوكيل (Agent Runtime) وتصنيف أمان النماذج اللغوية الكبيرة (LLM)، لربط أداء النماذج بمؤشرات المخاطر، لمساعدة المؤسسات على تقييم أمان نماذج الذكاء الاصطناعي بشكل موضوعي، ودمج استراتيجيات الأمان في سير العمل منذ مرحلة البناء.

DefenseClaw: دمج إطار الأمان المفتوح وسنابشوت الأتمتة

لتقليل تأثير مراجعات الأمان على تقدم التطوير، أطلقت سيسكو إطار وكيل الأمان المفتوح المصدر “DefenseClaw”، الذي يُستخدم لأتمتة إدارة الأمان ومسح قوائم الأصول. يدمج الإطار أدوات مثل مسح المهارات وقائمة مكونات البرمجيات الخاصة بالذكاء الاصطناعي (AI BOM)، ويخطط للتكامل مع NVIDIA OpenShell، باستخدام تقنية العزل في بيئة الساندبوكس، لإلغاء الحاجة إلى خطوات فحص الأمان اليدوية. من خلال التعاون المفتوح والأتمتة، يمكن للشركات تسريع نشر وكلاء الذكاء الاصطناعي مع الحفاظ على تكامل نظام “عدم الثقة”، مع ضمان أن كل مكون يتم التحقق منه وعزله.

وظائف جديدة للذكاء الاصطناعي من Splunk، مع الكشف التلقائي عن التنبيهات

لمواجهة التهديدات الآلية، أدمجت شركة Splunk AI في إطار مركز العمليات الأمنية (SOC) العديد من وظائف الذكاء الاصطناعي الجديدة، لتحويل نمط الدفاع من رد الفعل إلى الهجوم الاستباقي. تشمل الوظائف الجديدة في SOC الذكي أدوات مخصصة للكشف، وتحليل البرمجيات الخبيثة بشكل عكسي، والاستجابة الآلية، التي يمكنها تلقائيًا تصنيف التنبيهات والتحقيق في التهديدات. من خلال تحليل البيانات المترابطة والبحث المشترك، يمكن للمحللين ربط البيانات عبر البيئات المختلفة والحصول على تقييمات مخاطر فورية، مما يمكّن فرق الأمان من معالجة الأحمال العمل المعقدة بسرعة الآلة، وزيادة المرونة الأمنية بشكل عام.

هذه المقالة عن خطة سيسكو المبتكرة لوكلاء الذكاء الاصطناعي، والتي تركز على مساعدة الشركات في نشر أنظمة دفاع آلية “عدم الثقة”. نشرت لأول مرة على شبكة الأخبار ABMedia.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات