كشفت شركة Guardio للأمن السيبراني عن ثغرة خطيرة في المتصفحات المعتمدة على الذكاء الاصطناعي، حيث تمكن الباحثون من خداع متصفح Comet AI التابع لـ Perplexity وإيقاعه في فخ تصيّد خلال أقل من أربع دقائق فقط. هذه الهجمات تستغل طبيعة المتصفحات “الوكيلة” (Agentic Browsers) التي تنفذ إجراءات متعددة عبر مواقع مختلفة بشكل مستقل عن المستخدم، ما يجعلها هدفاً مباشراً للهجمات بدلاً من المستخدم نفسه.
مفهوم “ثرثرة الوكيل” Agentic Blabbering
أوضح الباحث Shaked Chen أن المتصفح المدعوم بالذكاء الاصطناعي يروي باستمرار ما يراه ويخطط لفعله، بما في ذلك ما يعتبره مشبوهاً أو آمناً. هذا السلوك، الذي أطلق عليه اسم Agentic Blabbering، يمنح المهاجمين إشارات تدريبية يمكن استخدامها لتطوير صفحات تصيّد تتجاوز الحواجز الأمنية تدريجياً حتى يقع المتصفح في الفخ.
الفكرة الأساسية هي بناء “آلة تصيّد” تقوم بتكرار تحسين الصفحة الخبيثة حتى يتوقف المتصفح عن الاعتراض ويبدأ بتنفيذ أوامر المهاجم، مثل إدخال بيانات اعتماد المستخدم في صفحة مزيفة.
هجمات الحقن التوجيهي Prompt Injection
الهجوم يعتمد على تقنيات سابقة مثل VibeScamming وScamlexity، حيث يتم إدخال تعليمات خفية داخل صفحات الويب لإقناع المتصفح بتنفيذ إجراءات ضارة. في هذه الحالة، الهدف لم يعد خداع المستخدم البشري، بل خداع النموذج نفسه.
هذا النوع من الهجمات يُعرف بـ Intent Collision، حيث يدمج المتصفح بين طلب المستخدم المشروع وتعليمات المهاجم القادمة من بيانات غير موثوقة، دون القدرة على التمييز بينهما.
ثغرات إضافية في Comet
البحث يأتي بعد أن أظهرت شركة Trail of Bits إمكانية استغلال المتصفح لاستخراج بيانات خاصة من خدمات مثل Gmail عبر تقنيات الحقن التوجيهي. كما كشفت Zenity Labs عن هجمات “Zero-Click” ضد Comet، منها هجوم PerplexedComet الذي يستغل دعوات الاجتماعات لاستخراج ملفات محلية، وهجوم آخر يستهدف مدير كلمات المرور 1Password إذا كان مثبتاً ومفتوحاً.
هذه الثغرات، التي أُطلق عليها اسم PerplexedBrowser، تمت معالجتها لاحقاً من قبل الشركة.
تحديات أمنية مستقبلية
تشير هذه التطورات إلى أن الهجمات لن تُطلق فقط في بيئة الإنترنت، بل سيتم تدريبها مسبقاً ضد النماذج التي يعتمد عليها ملايين المستخدمين، حتى تعمل بكفاءة من أول محاولة. وكما أوضحت OpenAI في ديسمبر 2025، فإن القضاء التام على ثغرات الحقن التوجيهي في المتصفحات الوكيلة “غير مرجح على الإطلاق”، لكن يمكن تقليل المخاطر عبر التدريب العدائي، اكتشاف الهجمات تلقائياً، وتطوير ضوابط جديدة على مستوى النظام.





























