رصد خبراء الأمن السيبراني استمرار جهات خبيثة في تسويق نماذج لغوية كبيرة (LLMs) معدلة خصيصًا لأغراض إجرامية، مثل WormGPT 4 وKawaiiGPT وXanthorox. هذه النماذج صُممت لإنتاج رسائل تصيّد احتيالي، كتابة برمجيات خبيثة متعددة الأشكال، وتنفيذ عمليات استطلاع آلية، وذلك عبر إزالة القيود الأخلاقية ومرشحات الأمان أثناء التدريب الأساسي أو عملية الضبط اللاحقة. بعض هذه الأدوات، مثل Xanthorox، تُعرض مقابل اشتراك سنوي يصل إلى 2500 دولار.
خفض عتبة الدخول إلى الجرائم السيبرانية
رغم أن الأكواد التي تنتجها هذه النماذج لا تقدم قدرات جديدة كليًا، إلا أنها تُسهّل على المهاجمين الأقل خبرة تنفيذ هجمات معقدة بسرعة وعلى نطاق واسع. ما كان يتطلب سابقًا خبرة برمجية متقدمة أصبح اليوم متاحًا لأي شخص يمتلك اتصالًا بالإنترنت وفهمًا بسيطًا لآلية كتابة الأوامر. هذا التحول يُعرف بـ”دمقرطة الجرائم السيبرانية”، حيث تتسع دائرة الفاعلين المحتملين بشكل غير مسبوق.
تجاوز الضوابط الأمنية
أوضحت وحدة 42 التابعة لشركة Palo Alto Networks أن الخط الفاصل بين أداة بحث مشروعة ومحرك تهديد قوي أصبح “رفيعًا للغاية”، وأن غياب الضوابط الأخلاقية هو ما يحول هذه النماذج إلى أدوات هجومية. ومن الأساليب الشائعة لتجاوز الضوابط الأمنية ادعاء المهاجمين أنهم باحثون أمنيون أو مشاركون في مسابقات Capture the Flag (CTF)، ما يمنحهم مبررًا زائفًا للحصول على أكواد هجومية. بحث جديد من Netskope Threat Labs كشف أن ضوابط نموذج GPT-4 يمكن التحايل عليها عبر حقن أوامر قائمة على الأدوار، حيث يكفي الطلب من النموذج أن يتقمص شخصية “سكريبت آلي لاختبار الاختراق” لإنتاج كود خبيث بلغة Python قادر على حقن نفسه في عملية svchost.exe وتعطيل جميع عمليات مكافحة الفيروسات.
مخاطر متزايدة مع الذكاء الاصطناعي الوكيلي
أشارت شركة Microsoft إلى أن إطلاق ميزات الذكاء الاصطناعي الوكيلي في Windows 11 يفتح الباب أمام مخاطر جديدة مثل هجمات Cross-Prompt Injection (XPIA)، التي قد تؤدي إلى تسريب البيانات أو تثبيت برمجيات ضارة. وأكدت الشركة أن مواجهة هذه التحديات تتطلب تطبيق تقنيات إلزامية للمواءمة الأمنية، وإجراء اختبارات ضغط عدائية قبل طرح النماذج للعامة، لضمان أن تعمل الوكلاء الذكية بما يتوافق مع نوايا المستخدم وتحافظ على أمان بياناته الحساسة.































