آلية الهجوم المعقدة
تعتمد هذه الهجمات على قدرة الوكلاء الاصطناعيين على اكتشاف بعضهم البعض والتعاون تلقائياً ضمن المنصة. ومن خلال إدراج أوامر خبيثة في محتوى يبدو عادياً، يمكن لوكيل benign أن يجند وكيلاً آخر أكثر قوة لتنفيذ إجراءات ضارة. وتكمن الخطورة في أن هذه العمليات تتم خلف الكواليس دون علم المؤسسة المستهدفة، حيث يعمل الوكلاء بصلاحيات المستخدم الذي بدأ التفاعل وليس منشئ الأمر الخبيث.
الإعدادات الافتراضية المثيرة للجدل
حدد الباحثون ثلاثة إعدادات افتراضية تسهل هذه الهجمات:
-
نماذج الذكاء الاصطناعي الداعمة لاكتشاف الوكلاء (مثل Azure OpenAI وNow LLM)
-
تجميع الوكلاء تلقائياً في نفس الفريق بشكل افتراضي
-标记 الوكلاء كقابلين للاكتشاف عند نشرهم
ورغم أن هذه الإعدادات مفيدة لتسهيل التواصل بين الوكلاء، إلا أنها تخلق بيئة خصبة لهجمات الحقن عندما يقرأ وكيل بيانات لم يدخلها المستخدم الذي يستدعيه.
توصيات الحماية والوقاية
قدم الخبراء عدة توصيات للتخفيف من هذه المخاطر، including تكوين وضع التنفيذ الخاضع للإشراف للوكلاء privileged، وتعطيل الخاصية التي تسمب بتجاوز الوضع المستقل، وتقسيم مهام الوكلاء حسب الفرق، ومراقبة سلوك الوكلاء الاصطناعيين لاكتشاف أي نشاط مريب. وأكد الباحثون أن هذه الثغرة لا تمثل عيباً في الذكاء الاصطناعي نفسه، بل هي سلوك متوقع وفقاً للإعدادات الافتراضية التي يمكن التغاضي عنها بسهولة.































