“الذكاء الاصطناعي الخفي”.. التحدي الجديد أمام حوكمة المؤسسات

كشف تقرير حديث أن ما يُعرف بـ “الذكاء الاصطناعي الخفي” (Shadow AI) بات يشكل أحد أكبر المخاطر التي تواجه المؤسسات في عصر الاعتماد المتسارع على أدوات الذكاء الاصطناعي التوليدي.

فوفقًا لتقرير معهد MIT حول “الذكاء الاصطناعي في الأعمال”، اشترت 40% من المؤسسات اشتراكات في أدوات الذكاء الاصطناعي المؤسسية، بينما أكثر من 90% من الموظفين يستخدمون أدوات ذكاء اصطناعي يوميًا، كثيرًا منها عبر حسابات بريد شخصية خارج نطاق الرقابة المؤسسية. دراسة أخرى من Harmonic Security أكدت أن نحو 45.4% من التفاعلات الحساسة مع الذكاء الاصطناعي تأتي من قنوات غير خاضعة للرقابة.

الموظفون يقودون التبني.. لا اللجان الإدارية

بينما تعتقد المؤسسات أن استخدام الذكاء الاصطناعي يتم بقرارات “من الأعلى إلى الأسفل”، الواقع أثبت العكس؛ حيث يعتمد الموظفون على الأدوات بشكل مستقل لتسريع إنتاجيتهم، حتى عند توفر بدائل رسمية داخل المؤسسة.

لماذا يفشل الحجب؟

اعتماد بعض المؤسسات على إستراتيجية “الحجب والانتظار” لا ينجح أمام واقع أن تقنيات الذكاء الاصطناعي أصبحت جزءًا مدمجًا في معظم تطبيقات SaaS مثل أدوات التعاون والإنتاجية. النتيجة: الموظفون ينتقلون ببساطة إلى أدوات أخرى أو حسابات شخصية، تاركين فرق الأمن في حالة “عمى” عن الاستخدام الحقيقي.

الحوكمة تبدأ من الاكتشاف

الأطر التنظيمية، مثل قانون الذكاء الاصطناعي الأوروبي، تلزم المؤسسات بإدارة سجل للأصول والأنظمة الذكية المستخدمة داخليًا. لكن لا يمكن بناء هذا السجل دون اكتشاف مسبق لاستخدامات الذكاء الاصطناعي الظل.
المخاطر متنوعة: بعض الأدوات تدرب على بيانات حساسة، أخرى تخزن معلومات في دول ذات مخاطر عالية على الملكية الفكرية مثل الصين.

الحل: إدارة ذكية بدلًا من الحجب

شركة Harmonic Security تقدم نهجًا يعتمد على مراقبة مستمرة واكتشاف استخدامات Shadow AI، مع تصنيف المخاطر بحسب نوع البيانات والوظائف. هذا يتيح تطبيق سياسات دقيقة؛ مثل السماح لفرق التسويق باستخدام بعض الأدوات لإنشاء محتوى، مقابل منع فرق الموارد البشرية أو القانونية من إدخال بيانات الموظفين عبر حسابات شخصية.

محمد الشرشابي
محمد الشرشابي
المقالات: 185

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


The reCAPTCHA verification period has expired. Please reload the page.