أعلنت شركة جوجل يوم الثلاثاء أن إطار عملها القائم على نماذج اللغة الكبيرة (LLM) لاكتشاف الثغرات الأمنية تمكّن من تحديد خلل أمني في محرك قاعدة البيانات مفتوح المصدر SQLite، قبل أن يتم استغلاله فعليًا من قبل جهات تهديد.
الثغرة، التي تحمل رقم CVE-2025-6965 ودرجة خطورة CVSS تبلغ 7.2، هي من نوع فساد الذاكرة وتؤثر على جميع الإصدارات السابقة للإصدار 3.50.2 من SQLite. وقد تم اكتشافها بواسطة وكيل الذكاء الاصطناعي المعروف باسم “Big Sleep”، والذي تم تطويره العام الماضي بالتعاون بين DeepMind وGoogle Project Zero.
وقال مطورو SQLite في بيان أمني: “قد يتمكن مهاجم يستطيع حقن أوامر SQL تعسفية في تطبيق ما من التسبب في تجاوز عددي يؤدي إلى قراءة بيانات خارج حدود مصفوفة.”
تدخل استباقي ضد استغلال وشيك
وصفت جوجل الثغرة بأنها “مشكلة أمنية حرجة كانت معروفة فقط لجهات التهديد، وكانت على وشك أن تُستغل.” ولم تكشف الشركة عن هوية الجهات المهددة.
وقال كينت ووكر، رئيس الشؤون العالمية في جوجل وألفابت: “من خلال الجمع بين استخبارات التهديدات وBig Sleep، تمكّنا من التنبؤ بأن ثغرة أمنية ما على وشك أن تُستغل، وتمكّنا من إحباطها مسبقًا.”
وأضاف: “نعتقد أن هذه هي المرة الأولى التي يتم فيها استخدام وكيل ذكاء اصطناعي بشكل مباشر لإحباط محاولة استغلال لثغرة أمنية في البرية.”
يُذكر أن وكيل الذكاء الاصطناعي نفسه سبق أن اكتشف في أكتوبر 2024 ثغرة أخرى في SQLite، كانت من نوع “تجاوز سعة المخزن المؤقت من الأسفل” وكان من الممكن استغلالها لتنفيذ تعليمات برمجية أو التسبب في انهيار النظام.
إطار أمني هجين للذكاء الاصطناعي
بالتزامن مع هذا التطور، نشرت جوجل ورقة بيضاء توضح نهجها في بناء وكلاء ذكاء اصطناعي آمنين، بحيث يكون لهم مراقب بشري محدد، وقدرات محدودة بعناية لتجنب التصرفات الخارجة عن السيطرة أو تسريب البيانات الحساسة، مع الحفاظ على قابلية تتبع كل إجراء.
وكتب باحثو جوجل سانتياغو (سال) دياز، وكريستوف كيرن، وكارا أوليف: “الأساليب التقليدية لأمن الأنظمة، مثل فرض القيود من خلال البرمجيات التقليدية، تفتقر إلى الوعي السياقي اللازم للوكلاء متعددِي الاستخدامات، وقد تكون مقيِّدة أكثر من اللازم.”
“وفي المقابل، فإن الاعتماد الكلي على قدرات النماذج اللغوية الكبرى في التقييم ليس كافيًا، نظرًا لأنها لا تزال عرضة للهجمات مثل حقن الأوامر في المطالبات ولا تقدم ضمانات قوية بما فيه الكفاية.”
دفاع متعدد الطبقات لتقليل المخاطر
للتعامل مع هذه التحديات، اعتمدت جوجل نهج “الدفاع المتعدد الطبقات”، الذي يجمع بين أدوات التحكم التقليدية الحتمية والقدرات الدفاعية المستندة إلى المنطق الديناميكي.
وقالت الشركة: “الفكرة تتمثل في إنشاء حدود صارمة حول بيئة تشغيل وكيل الذكاء الاصطناعي، بحيث يتم تقليل خطر النتائج الضارة إلى أدنى حد، وخاصةً تلك التي قد تنتج عن هجمات مثل حقن الأوامر.”
“هذا النهج يوفر حواجز أمان حتى في حال اختراق عملية التفكير الداخلية للوكيل أو تحريفها من قبل مدخلات خبيثة أو غير متوقعة.”