أعلنت شركة OpenAI عن نجاحها في تعطيل ثلاث مجموعات تهديد سيبرانية استخدمت أداة الذكاء الاصطناعي ChatGPT في تطوير برمجيات خبيثة وأدوات اختراق متقدمة، في أحدث خطوة ضمن جهودها لحماية منظومتها من سوء الاستخدام.
شبكة روسية استخدمت ChatGPT لتطوير برمجيات تجسس وسرقة بيانات
كشفت OpenAI أن أولى هذه المجموعات تتحدث الروسية، وقد استخدمت حسابات متعددة على ChatGPT لتصميم وتحسين حصان طروادة للتحكم عن بُعد (RAT) وأداة لسرقة بيانات الاعتماد مع قدرات عالية على التخفي وتجاوز أنظمة الكشف.
كما استعان المهاجمون بالأداة لتجريب مكونات تقنية تمكّن من تنفيذ عمليات ما بعد الاختراق وسرقة كلمات المرور، ونشروا لاحقًا أدلة على نشاطهم في قنوات تليغرام مخصّصة للجماعات الإجرامية الروسية.
وأوضحت الشركة أن النماذج اللغوية الكبيرة الخاصة بها رفضت الطلبات المباشرة لإنتاج محتوى خبيث، إلا أن المهاجمين لجؤوا إلى أسلوب التجزئة عبر إنشاء شيفرات أولية صغيرة ثم تجميعها لتكوين برامج ضارة متكاملة.
وتضمّنت الأكواد المنتجة مكونات لتشويش الشيفرات ومراقبة الحافظة ونقل البيانات عبر بوت تليغرام، وهي أوامر لا تُعد خبيثة في ذاتها لكنها استُخدمت ضمن بنية ضارة.
وأضافت OpenAI أن المهاجم الروسي أظهر خليطًا من المهارة التقنية العالية في طلباته البرمجية المعقدة، إلى جانب أوامر بسيطة لأتمتة مهام شائعة مثل توليد كلمات مرور جماعية أو ملء طلبات التوظيف آليًا.
حملة كورية شمالية مرتبطة بـ Xeno RAT استخدمت ChatGPT في تطوير أدوات التحكم
أما المجموعة الثانية، فتنتمي إلى كوريا الشمالية، وتشترك مع حملة سبق أن وثّقتها شركة Trellix في أغسطس 2025، والتي استهدفت بعثات دبلوماسية في كوريا الجنوبية عبر رسائل تصيّد تحمل برنامج التجسس Xeno RAT.
وبحسب OpenAI، استخدم المهاجمون ChatGPT في تطوير أدوات التحكم والسيطرة (C2)، وإنشاء امتدادات Finder لنظام macOS، وضبط خوادم VPN لأنظمة ويندوز سيرفر، وتحويل إضافات Chrome إلى Safari.
كما استعانوا بالأداة لصياغة رسائل تصيّد، وتجريب خدمات سحابية ووظائف GitHub، واستكشاف تقنيات تحميل مكتبات DLL وتنفيذ التعليمات في الذاكرة وربط واجهات Windows API وسرقة بيانات الدخول.
مجموعة صينية تستهدف قطاع أشباه الموصلات التايواني
أما الكتلة الثالثة من الحسابات المحظورة فكانت مرتبطة بمجموعة صينية تُعرف باسم UNK_DropPitch (الاسم الرمزي Proofpoint: UTA0388)، والتي شنّت حملات تصيّد ضد شركات استثمار كبرى، مركّزة على قطاع أشباه الموصلات في تايوان باستخدام باب خلفي يُدعى HealthKick أو GOVERSHELL.
واستخدمت هذه المجموعة ChatGPT لإنتاج محتوى حملات تصيّد باللغات الإنجليزية والصينية واليابانية، ولتسريع المهام الروتينية مثل تنفيذ الأوامر عن بُعد وحماية حركة البيانات عبر بروتوكول HTTPS. كما بحثت عن معلومات حول أدوات مفتوحة المصدر مثل nuclei و fscan.
ووصفت OpenAI هذه الجهة بأنها ذات كفاءة تقنية لكن محدودة التطور.
حظر حسابات أخرى استخدمت الذكاء الاصطناعي في الاحتيال والتأثير الإعلامي
إضافة إلى المجموعات الثلاث، أغلقت OpenAI حسابات أخرى استخدمت ChatGPT لأغراض الاحتيال الإلكتروني وعمليات التأثير الإعلامي.
فقد استُخدم الذكاء الاصطناعي في دول مثل كمبوديا وميانمار ونيجيريا لترجمة النصوص وكتابة رسائل الإقناع وإنشاء محتوى دعائي لاستدراج الضحايا إلى استثمارات وهمية.
كما استخدم أفراد يُعتقد أنهم مرتبطون بجهات حكومية صينية الأداة في مراقبة الأقليات المسلمة كالإيغور وتحليل بيانات من منصات اجتماعية غربية وصينية.
وفي نشاط آخر، وظّفت جهة روسية مرتبطة بمنصة Stop News الذكاء الاصطناعي لإنتاج مقاطع ومقالات تنتقد دور الولايات المتحدة وفرنسا في إفريقيا وتروّج لروايات مؤيدة لروسيا ومعادية لأوكرانيا.
أما حملة صينية أخرى تُعرف باسم “Nine—emdash Line” فقد استخدمت النماذج لإنتاج محتوى اجتماعي ينتقد رئيس الفلبين فرديناند ماركوس، ويتناول قضايا بيئية وسياسية في بحر الصين الجنوبي وهونغ كونغ.
وأشارت OpenAI إلى أن بعض الحسابات الصينية طلبت من ChatGPT تحديد منظمي عرائض أو مصادر تمويل حسابات تنتقد الحكومة الصينية، إلا أن النموذج لم يُنتج سوى معلومات عامة متاحة علنًا دون خرق للخصوصية.
جهود متواصلة لتعزيز أمان الذكاء الاصطناعي
قالت OpenAI إن تقاريرها الأخيرة تُظهر أن بعض الجهات الخبيثة باتت تحاول تعديل مخرجاتها لإزالة أي مؤشرات تدل على أن المحتوى مولّد بالذكاء الاصطناعي.
فقد لاحظت الشركة أن شبكة احتيال من كمبوديا تعمّدت إزالة الشرطات الطويلة (em-dashes) من النصوص المنشورة، بعد تداولها على نطاق واسع كدليل محتمل على كون النص مكتوبًا بوساطة الذكاء الاصطناعي.
وتزامن تقرير OpenAI مع إعلان شركة Anthropic عن أداة مفتوحة المصدر جديدة تُعرف باسم Petri، تُستخدم لتدقيق أنظمة الذكاء الاصطناعي ورصد السلوكيات الخطرة مثل الخداع والمبالغة والتعاون مع الطلبات الضارة.
وتهدف هذه الأداة إلى تحسين أمان الذكاء الاصطناعي من خلال محاكاة محادثات متعددة وتقييم استجابات النماذج عبر مقاييس محددة، مما يتيح للباحثين تحليل نقاط الضعف السلوكية للنماذج اللغوية بسرعة ودقة.