كشفت تقارير أمنية حديثة عن ثغرة خطيرة سمحت لمهاجمين باستغلال دعوات تقويم جوجل المصممة بعناية، من أجل السيطرة عن بُعد على وكلاء الذكاء الاصطناعي Gemini المثبتة على أجهزة الضحايا. وقد أدى هذا الهجوم إلى تسريب بيانات حساسة للمستخدمين، بل وصل الأمر إلى الاستحواذ على التحكم في أنظمة المنازل الذكية.
كيف تبدأ الهجمة عبر دعوة تقويم عادية
تبدأ العملية بإرسال المهاجم دعوة تقويم جوجل إلى الضحية، تتضمن في اسم المرسل تعليمات خبيثة مخفية تعرف باسم حقن الأوامر غير المباشر (Indirect Prompt Injection). وبمجرد أن يُطلب من Gemini تلخيص الأحداث القادمة في التقويم، تُفعّل تلك التعليمات النائمة، مما يسمح بالتحكم في البيئة الفيزيائية للضحية، مثل تشغيل الأجهزة المنزلية أو إيقافها عن بُعد.
تقنية جديدة لتجاوز أنظمة الحماية
الهجوم اعتمد على أسلوب يسمى الاستدعاء التلقائي المؤجل للأدوات (Delayed Automatic Tool Invocation)، والذي مكّن المهاجمين من تجاوز إجراءات الأمان التي وضعتها جوجل. والأخطر أن هذا الاستغلال استفاد من الصلاحيات الواسعة التي يتمتع بها Gemini داخل النظام البيئي لجوجل، بما في ذلك الوصول إلى تطبيقات وخدمات متعددة. ونتيجة لذلك، تمكن المهاجمون من السيطرة على السياق التشغيلي للتطبيق واستدعاء الوكلاء المدمجين وتنفيذ سلسلة واسعة من الأنشطة الخبيثة، مثل تحديد موقع الضحية، تسجيل صوته وصورته، وحتى إجراء تغييرات في بيئته المادية.
انتقال جانبي بين الوكلاء والتطبيقات
تكشف هذه الهجمات أن Promptware – وهو إصدار مطور من أداة EchoLeak – قادر على تنفيذ انتقال جانبي بين الوكلاء (Inter-agent Lateral Movement)، عبر تفعيل نشاط خبيث بين وكلاء Gemini المختلفين. كما يمكنه الانتقال بين التطبيقات (Inter-app Lateral Movement)، مستغلاً تطبيقات مثبتة على هاتف الضحية لتنفيذ أنشطة ضارة بآثار حقيقية في العالم الواقعي. وتشمل هذه الأنشطة إرسال روابط سبام، توليد محتوى مسيء، فتح تطبيق Zoom وإجراء مكالمات، سرقة رسائل البريد الإلكتروني وتفاصيل الاجتماعات من المتصفح، وتنزيل ملفات عبر متصفح الهاتف الذكي.
استجابة جوجل والتحديات المستمرة
سارعت جوجل إلى إصدار إصلاحات، من بينها تقنية أطلقت عليها تعزيز التفكير الأمني (Security Thought Reinforcement)، بهدف تقوية أنظمة الحماية ضد هذه الأنماط من الهجمات. غير أن التهديدات المتعلقة بحقن الأوامر غير المباشرة ما تزال تمثل خطراً بالغاً، إذ يمكن إدراج التعليمات الضارة من مصادر خارجية غير متوقعة، مثل نصوص خفية داخل صفحات الويب أو رسائل بريد إلكتروني مكتوبة بخط غير مرئي للعين البشرية، لكنها قابلة للقراءة من قبل أنظمة الذكاء الاصطناعي.
ويؤكد الخبراء أن مواجهة هذه الفئة من التهديدات ليست سهلة، لأن الطرق التي يمكن بها خداع النماذج اللغوية الكبيرة LLMs تتطور باستمرار، بينما يزداد سطح الهجوم تعقيداً يوماً بعد يوم.