أعلنت جوجل عن مجموعة من ميزات الأمان الجديدة في متصفح كروم، وذلك بعد دمج قدرات الذكاء الاصطناعي الوكيلي داخل المتصفح. وتهدف هذه الخطوة إلى منع استغلال ما يُعرف بالحقن غير المباشر للأوامر، وهي هجمات تستغل محتوى ويب غير موثوق لدفع النموذج الذكي إلى تنفيذ إجراءات ضارة دون علم المستخدم.
وتتضمن أبرز الميزات إضافة مكوّن جديد يسمى User Alignment Critic، وهو نموذج ثانٍ يعمل بشكل مستقل لمراجعة قرارات النموذج الأساسي والتأكد من توافقها مع هدف المستخدم. ويعمل هذا المكوّن في بيئة معزولة لا تتعرض لأي محتوى ويب قد يحتوي على تعليمات خبيثة، ما يمنع تسميمه أو التأثير عليه.
وتوضح جوجل أن هذا النظام يقوم بمراجعة كل خطوة بعد اكتمال التخطيط، وفي حال اكتشاف أي إجراء غير متوافق مع هدف المستخدم، يتم رفضه وإعادة الخطة للنموذج لإعادة صياغتها.
ضبط نطاقات الوصول ومنع تجاوزات العزل
أضافت جوجل أيضًا آلية جديدة تُعرف باسم Agent Origin Sets، وهي طبقة تتحكم في نطاقات الويب التي يُسمح للوكيل الذكي بالوصول إليها. وتهدف هذه الآلية إلى منع سيناريوهات يتجاوز فيها الوكيل العزل بين المواقع، مما قد يسمح له بالتفاعل مع مواقع حساسة أو مسجّل الدخول إليها المستخدم.
وتعمل هذه الآلية عبر وظيفة تصنيف تحدد نطاقات القراءة فقط، ونطاقات القراءة والكتابة، بحيث لا يتم تمرير البيانات إلا ضمن الحدود المسموح بها. وتؤكد جوجل أن هذا الفصل يحد من مخاطر تسرب البيانات عبر المواقع.
كما أن وظيفة التصنيف هذه معزولة تمامًا عن محتوى الويب غير الموثوق، ولا يمكن للنموذج إضافة نطاقات جديدة إلا بعد الحصول على موافقة هذه الآلية.
شفافية أكبر وتحكم مباشر للمستخدم
تعتمد البنية الأمنية الجديدة على تعزيز الشفافية، إذ أصبح بإمكان الوكيل إنشاء سجل عمل يوضح للمستخدم ما يقوم به خطوة بخطوة. كما يطلب المتصفح موافقة صريحة قبل زيارة مواقع حساسة مثل البنوك أو بوابات الرعاية الصحية، أو قبل تنفيذ عمليات تسجيل الدخول أو الدفع أو إرسال الرسائل.
ويقوم الوكيل أيضًا بفحص كل صفحة ويب بحثًا عن محاولات الحقن غير المباشر، بالتوازي مع ميزات Safe Browsing وأنظمة كشف الاحتيال على الجهاز، لمنع أي محتوى قد يستهدف النموذج بشكل خبيث.
مكافآت مالية لاختبار الدفاعات وتحذيرات من المخاطر
أعلنت جوجل عن مكافآت تصل إلى 20 ألف دولار للباحثين الذين يتمكنون من كسر هذه الدفاعات، سواء عبر تنفيذ إجراءات ضارة دون موافقة المستخدم، أو تسريب بيانات حساسة، أو تجاوز آليات الحماية.
وتأتي هذه الخطوة بعد تحذيرات من Gartner التي دعت المؤسسات إلى حظر استخدام المتصفحات المعتمدة على الذكاء الاصطناعي حتى يتم التحكم في مخاطرها، خصوصًا احتمال قيام الموظفين باستخدامها لتجاوز مهام إلزامية مثل تدريبات الأمن السيبراني.
كما حذرت هيئة الأمن السيبراني البريطانية NCSC من أن نماذج اللغة الكبيرة تعاني من ثغرة متأصلة في الحقن، وأن المشكلة لا يمكن حلها بالكامل، مما يستدعي الاعتماد على ضوابط خارجية غير قائمة على الذكاء الاصطناعي لضبط السلوك.






























