أعلنت شركة OpenAI أنها أغلقت عدداً من حسابات ChatGPT بعد اكتشاف استخدامها في أنشطة ضارة تشمل عمليات تأثير سرية، محاولات تصيّد إلكتروني، وتطوير برمجيات خبيثة. من بين هذه الحالات، رُصدت عملية محتملة مرتبطة بجهات استخباراتية صينية، حيث استُخدم الذكاء الاصطناعي في حملات تأثير ضد خصوم محليين ودوليين.
كما اتخذت الشركة إجراءات ضد مجموعات نفذت أنشطة استطلاعية حول أشخاص أميركيين ومواقع مبانٍ فيدرالية، إضافة إلى شبكات احتيال عبر الإنترنت تستغل العلاقات العاطفية، فضلاً عن عمليات تأثير روسية في إفريقيا عبر إنشاء منشورات على وسائل التواصل ومقالات مطولة.
شبكات الاحتيال وأساليب جديدة
من أبرز ما كشفته الشركة شبكة احتيال تعمل من كمبوديا، جمعت بين استخدام يدوي لتوجيه ChatGPT ودمج روبوت دردشة آلي بهدف الإيقاع بالضحايا. بعض هذه العمليات استهدفت مستخدمين في إندونيسيا عبر وعود رومانسية مزيفة.
في حالات أخرى، استُخدم ChatGPT لإنشاء محتوى يظهر وكأنه صادر عن مكاتب محاماة وهمية، أو لانتحال شخصيات محامين حقيقيين وجهات إنفاذ القانون الأميركية، وذلك ضمن مخططات احتيالية تستهدف ضحايا سبق أن تعرضوا لعمليات نصب، بزعم مساعدتهم على استرداد أموالهم.
خلفيات أمنية ودلالات
هذه الإجراءات تأتي في وقت يتزايد فيه القلق العالمي من إساءة استخدام أدوات الذكاء الاصطناعي في أنشطة غير مشروعة. فبينما يُنظر إلى الذكاء الاصطناعي كأداة لتعزيز الإنتاجية والابتكار، فإن استغلاله في حملات تضليل أو هجمات إلكترونية يثير مخاوف جدية حول الأمن الرقمي والثقة في المنصات التقنية.
التحركات الأخيرة لـ OpenAI تعكس إدراكاً متنامياً بأن شركات التكنولوجيا مطالبة بفرض ضوابط صارمة على استخدام أدواتها، خاصة مع تزايد الأدلة على أن جهات دولية وجهات إجرامية تستغل هذه التقنيات لتحقيق أهداف سياسية أو مالية.






























