أعلنت شركة Anthropic الناشئة في مجال الذكاء الاصطناعي عن اكتشافها حملات واسعة النطاق نفذتها ثلاث شركات صينية هي: DeepSeek، Moonshot AI، وMiniMax، بهدف استخراج قدرات نموذجها اللغوي “Claude” بشكل غير قانوني. هذه الهجمات، التي تُعرف باسم “الاستقطار” أو Distillation Attacks، اعتمدت على أكثر من 16 مليون تفاعل عبر نحو 24 ألف حساب مزيف، في انتهاك مباشر لشروط الخدمة والقيود التنظيمية التي تمنع استخدام النموذج داخل الصين بسبب مخاطر قانونية وأمنية.
تقنية الاستقطار بين الاستخدام المشروع والاستغلال غير القانوني
تقنية الاستقطار تُستخدم عادةً لتدريب نماذج أصغر وأرخص على مخرجات نماذج أكبر وأكثر تقدماً، وهو أمر مشروع إذا تم داخل الشركة نفسها. لكن ما حدث هنا هو استغلال غير قانوني، حيث قامت الشركات الصينية بتغذية نماذجها بمخرجات “Claude” لتسريع تطويرها، متجاوزة سنوات من البحث والتطوير. أنثروبيك حذرت من أن هذه النماذج المستخلصة تفتقر إلى الضوابط الأمنية، ما يجعلها عرضة للاستخدام في أنشطة خطيرة مثل الهجمات السيبرانية، حملات التضليل، والمراقبة الجماعية.
تفاصيل الحملات الثلاث وأهدافها
- DeepSeek: ركزت على قدرات التفكير المنطقي وتقييم المهام وفق معايير محددة، إضافة إلى توليد بدائل آمنة للرقابة في القضايا السياسية الحساسة، عبر أكثر من 150 ألف تفاعل.
- Moonshot AI: استهدفت قدرات “Claude” في التفكير الوكيلي واستخدام الأدوات، البرمجة، تطوير وكلاء الحاسوب، والرؤية الحاسوبية، عبر أكثر من 3.4 مليون تفاعل.
- MiniMax: ركزت على قدرات البرمجة واستخدام الأدوات بشكل واسع، عبر أكثر من 13 مليون تفاعل.
أنثروبيك أوضحت أن حجم وهيكلية هذه الطلبات تختلف جذرياً عن الاستخدام الطبيعي، ما يعكس نية واضحة لاستخلاص القدرات بدلاً من الاستخدام المشروع.
البنية التقنية للهجمات وردود الفعل الدولية
الهجمات اعتمدت على شبكات بروكسي تجارية ضخمة تُعرف بـ”Hydra Cluster”، تضم آلاف الحسابات المزيفة التي تُوزع حركة المرور لتفادي الكشف. في إحدى الحالات، تمكنت شبكة واحدة من إدارة أكثر من 20 ألف حساب مزيف في وقت واحد، مما جعل عملية الحظر غير فعالة.
رداً على ذلك، طورت أنثروبيك أنظمة تصنيف وبصمات سلوكية لرصد أنماط الهجمات، وعززت إجراءات التحقق للحسابات التعليمية والبحثية، كما أضافت ضوابط تقلل من إمكانية استغلال مخرجات النموذج في الاستقطار غير المشروع.
اللافت أن هذه الإفصاحات تأتي بعد أسابيع من إعلان فريق Google Threat Intelligence Group (GTIG) عن إحباط هجمات مشابهة استهدفت نموذج “Gemini”، ما يعكس اتساع نطاق هذه الظاهرة وخطورتها على صناعة الذكاء الاصطناعي العالمية.






























