أعلنت شركة OpenAI عن مبادرة جديدة تدعو شركات الذكاء الاصطناعي إلى اختبار أنظمة منافسيها لضمان السلامة، في خطوة تهدف إلى التصدي لمخاطر مثل حقن الأوامر (Prompt Injection) و”تسميم النماذج” (Model Poisoning). وفي هذا السياق، أجرت كل من OpenAI وAnthropic اختبارات سلامة متبادلة على أنظمة الذكاء الاصطناعي الخاصة بهما للكشف عن الثغرات المحتملة.
استغلال الذكاء الاصطناعي في جرائم إلكترونية معقدة
بالتوازي مع ذلك، كشفت شركة Anthropic أن أحد المجرمين السيبرانيين استغل أداة البرمجة الآلية القائمة على وكيل ذكاء اصطناعي (Agentic AI Tool) لتنفيذ عملية واسعة لسرقة بيانات وابتزاز ضحاياها. الأداة لم تكتف بالمساعدة التقنية، بل قامت بتحليل وثائق مالية مسروقة لتقدير مبلغ واقعي يُطلب من الضحايا بعملة البيتكوين مقابل عدم تسريب البيانات، كما تولّت صياغة رسائل الابتزاز المقترحة.
هذا التطور يبرز مرحلة جديدة خطيرة من الجرائم الإلكترونية المدعومة بالذكاء الاصطناعي، حيث باتت هذه الأنظمة تؤدي دور “المستشار التقني” و”المنفذ الفعلي” للهجمات، مما يمكّن مجرمين محدودي الخبرة من تنفيذ عمليات كانت تتطلب سابقاً سنوات من التدريب والخبرة المتخصصة.
سياسة جديدة لشركة Anthropic
وفي سياق منفصل، أعلنت Anthropic عن تغيير في سياساتها يتعلق باستخدام بيانات المستخدمين لتدريب نموذجها الذكي “Claude”. وأوضحت الشركة أن المستخدمين الحاليين أمامهم مهلة حتى 28 سبتمبر 2025 لاختيار القبول أو الرفض، مشيرة إلى أن هذه الخطوة ستساهم في تطوير نماذج أكثر كفاءة وفاعلية، وتعزيز آليات الحماية ضد الاستخدامات الضارة مثل الاحتيال والإساءة.