ثغرة خطيرة في وكلاء ServiceNow الذكاء الاصطناعي.. هجمات “الحقن المتسلسل” تهدد البيانات الحساسة

كشفت دراسة أمنية حديثة عن إمكانية استغلال الثغرات في التكوينات الافتراضية لمنصة ServiceNow الذكية Now Assist، حيث يمكن للمهاجمين تنفيذ هجمات “الحقن من الدرجة الثانية” عبر تحريض الوكلاء الاصطناعيين على العمل ضد بعضهم البعض. وأوضحت شركة AppOmni المتخصصة في الأمن السيبراني أن هذه الهجمات تتيح للمتسللين نسخ البيانات الحساسة وتسريبها، وتعديل السجلات، ورفع الصلاحيات دون اكتشاف.
آلية الهجوم المعقدة

تعتمد هذه الهجمات على قدرة الوكلاء الاصطناعيين على اكتشاف بعضهم البعض والتعاون تلقائياً ضمن المنصة. ومن خلال إدراج أوامر خبيثة في محتوى يبدو عادياً، يمكن لوكيل benign أن يجند وكيلاً آخر أكثر قوة لتنفيذ إجراءات ضارة. وتكمن الخطورة في أن هذه العمليات تتم خلف الكواليس دون علم المؤسسة المستهدفة، حيث يعمل الوكلاء بصلاحيات المستخدم الذي بدأ التفاعل وليس منشئ الأمر الخبيث.

الإعدادات الافتراضية المثيرة للجدل

حدد الباحثون ثلاثة إعدادات افتراضية تسهل هذه الهجمات:

  • نماذج الذكاء الاصطناعي الداعمة لاكتشاف الوكلاء (مثل Azure OpenAI وNow LLM)

  • تجميع الوكلاء تلقائياً في نفس الفريق بشكل افتراضي
    -标记 الوكلاء كقابلين للاكتشاف عند نشرهم

ورغم أن هذه الإعدادات مفيدة لتسهيل التواصل بين الوكلاء، إلا أنها تخلق بيئة خصبة لهجمات الحقن عندما يقرأ وكيل بيانات لم يدخلها المستخدم الذي يستدعيه.

توصيات الحماية والوقاية

قدم الخبراء عدة توصيات للتخفيف من هذه المخاطر، including تكوين وضع التنفيذ الخاضع للإشراف للوكلاء privileged، وتعطيل الخاصية التي تسمب بتجاوز الوضع المستقل، وتقسيم مهام الوكلاء حسب الفرق، ومراقبة سلوك الوكلاء الاصطناعيين لاكتشاف أي نشاط مريب. وأكد الباحثون أن هذه الثغرة لا تمثل عيباً في الذكاء الاصطناعي نفسه، بل هي سلوك متوقع وفقاً للإعدادات الافتراضية التي يمكن التغاضي عنها بسهولة.

محمد طاهر
محمد طاهر
المقالات: 937

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


The reCAPTCHA verification period has expired. Please reload the page.