مخاطر أدوات الذكاء الاصطناعي التوليدي الصينية في بيئة المؤسسات: تسريب البيانات يهدد الخصوصية

كشفت دراسة حديثة أجرتها شركة “Harmonic Security” أن الموظفين في الولايات المتحدة والمملكة المتحدة يستخدمون أدوات الذكاء الاصطناعي التوليدي المطورة في الصين على نطاق واسع، غالبًا دون علم أو موافقة فرق الأمن السيبراني. وأشارت الدراسة إلى مئات الحالات التي تم فيها رفع بيانات حساسة إلى منصات مستضافة داخل الصين، ما يثير مخاوف جدية تتعلق بالامتثال لمعايير حماية البيانات، ومكان تخزينها، وسرية المعلومات التجارية.

وخلال فترة رصد استمرت 30 يومًا، قامت “Harmonic” بتحليل سلوك 14,000 موظف ضمن مجموعة متنوعة من الشركات. وقد تبين أن قرابة 8% منهم استخدموا أدوات ذكاء اصطناعي صينية مثل DeepSeek، Kimi Moonshot، Baidu Chat، Qwen التابعة لشركة Alibaba، وManus. وعلى الرغم من سهولة الوصول إلى هذه الأدوات وقوتها التقنية، إلا أنها غالبًا ما تفتقر إلى الشفافية بشأن كيفية تخزين البيانات أو معالجتها أو إعادة استخدامها.

وتبرز هذه النتائج الفجوة المتسعة بين اعتماد تقنيات الذكاء الاصطناعي وبين حوكمتها، لا سيما في المؤسسات ذات الطابع البرمجي، حيث يتم أحيانًا تقديم سرعة الإنجاز على الالتزام بسياسات الحماية.

تسريب البيانات على نطاق واسع

أظهرت الدراسة أن 1,059 مستخدمًا رفعوا أكثر من 17 ميغابايت من المحتوى إلى المنصات الصينية، وجرى تحديد 535 حادثة تسريب لمعلومات حساسة. وشملت هذه البيانات شيفرات برمجية ووثائق هندسية، بالإضافة إلى ملفات تتعلق بعمليات اندماج واستحواذ، وتقارير مالية، ومعلومات تعريف شخصية، وعقود قانونية، وسجلات عملاء.

وكانت أداة DeepSeek مسؤولة عن 85% من هذه الحوادث، فيما سجلت كل من Kimi Moonshot وQwen نسب استخدام متزايدة. ويُظهر هذا الاتجاه أن أدوات الذكاء الاصطناعي الصينية تدخل بيئات العمل من خلال استخدام الأفراد، لا عبر القنوات الرسمية المصرح بها.

وتعمل هذه الأدوات في ظل سياسات بيانات مبهمة أو متساهلة، وتسمح بعض الشروط باستخدام المحتوى المُحمّل لأغراض تدريب النماذج، وهو ما يمثل تهديدًا خطيرًا للمؤسسات العاملة في القطاعات الخاضعة للتنظيم أو التي تتعامل مع برامج خاصة وخطط داخلية.

التحكم الفني في السياسات كأداة للحماية

طورت Harmonic Security أدوات تقنية تتيح للمؤسسات فرض رقابة مباشرة على استخدام أدوات الذكاء الاصطناعي داخل بيئة العمل. ويعمل نظامها على مراقبة الأنشطة المتعلقة بالذكاء الاصطناعي في الوقت الفعلي وتطبيق السياسات بشكل فوري.

وتتيح المنصة إمكانات تحكم دقيقة، مثل حظر الوصول إلى تطبيقات معينة استنادًا إلى بلد مقرها الرئيسي، ومنع رفع أنواع محددة من البيانات، وتثقيف المستخدمين من خلال رسائل توعوية سياقية تظهر أثناء الاستخدام.

الحوكمة كضرورة استراتيجية

لم يعد استخدام أدوات الذكاء الاصطناعي غير المصرح بها مجرد احتمال نظري. فبيانات Harmonic تظهر أن موظفًا من كل اثني عشر تقريبًا يتفاعل حاليًا مع منصات ذكاء اصطناعي صينية، في كثير من الأحيان دون إدراك لمخاطر الاحتفاظ بالبيانات أو القيود القضائية.

وتُبرز هذه النتائج أن مجرد التوعية بالمخاطر لا تكفي، إذ باتت الحاجة ملحة إلى وجود ضوابط فاعلة يتم فرضها بشكل نشط، وذلك لضمان تبني الذكاء الاصطناعي دون التفريط في متطلبات الامتثال أو الأمن. ومع تطور هذه التكنولوجيا، قد يصبح التحكم في استخدامها عاملًا حاسمًا لا يقل أهمية عن أدائها الوظيفي.

محمد طاهر
محمد طاهر
المقالات: 578

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


The reCAPTCHA verification period has expired. Please reload the page.