تحديات أمنية جديدة في موجهة الذكاء الاصطناعي الظل 

يطرح الذكاء الاصطناعي الظل (Shadow AI) تحديات جديدة لقادة الأمن السيبراني. في حين أن أدوات الذكاء الاصطناعي قد أحدثت ثورة في طريقة عملنا، إلا أنها أوجدت أيضًا تحديات أمنية غير مسبوقة لم تصمم استراتيجياتنا التقليدية أو أدواتنا للتعامل معها.

بعد قضاء عقد من الزمن في العمل مع مؤسسات تواجه مخاطر التكنولوجيا الناشئة، يمكنني القول بأن هذه المخاطر تختلف عما واجهناه من قبل. في هذه المقالة، سنتحدث عن سبب ذلك، والأهم من ذلك، ما يمكنك فعله حيال ذلك.

المخاطر الخفية لتبني الذكاء الاصطناعي: الذكاء الاصطناعي الظل

كشف فريق أبحاث Wiz مؤخرًا عن قاعدة بيانات ClickHouse تابعة لـ DeepSeek، مكشوفة للجمهور، مما أدى إلى تسريب بيانات الدردشة، وأسرار API، وغيرها من البيانات الحساسة، مما أثار مخاوف جدية لأي منظمة تستخدم نماذج DeepSeek. تسارع العديد من الفرق إلى تجربة DeepSeek نظرًا لتقدمه التكنولوجي المذهل، ورغم أن الحادثة أحاطتها الشائعات والمعلومات المغلوطة، فقد أسست لمعايير جديدة للخصوصية والأمان. في أعقاب هذا الحادث:

  • منعت ولاية تكساس استخدام DeepSeek على الأجهزة الحكومية.
  • ظهر برمجيات خبيثة تتنكر على هيئة DeepSeek في PyPi، مما زاد من مخاطر الأمن السيبراني.
  • فرضت كل من تايوان وإيطاليا قيودًا على DeepSeek بسبب مخاوف تتعلق بخصوصية البيانات.

ورغم الجدل، أصبحت نماذج DeepSeek-R1 متاحة الآن على AWS، مما يثير تساؤلات إضافية حول التبني والرقابة الأمنية.

يُعد هذا تذكيرًا واضحًا بأن الأدوات المستندة إلى الذكاء الاصطناعي قد تفرض مخاطر أمنية كبيرة دون تدابير وقائية مناسبة – ومع ذلك، ستظل المؤسسات تستخدمها لقيمتها الإنتاجية العالية. لا ينبغي أن يكون الأمن السيبراني عائقًا أمام الأعمال، بل يجب أن يكون ممكنًا لها. إذًا، كيف يمكننا تمكين المؤسسات من تبني هذه التقنيات دون تعريض البيانات الحساسة للخطر؟ الإجابة في الأقسام التالية.

التكلفة الخفية للابتكار: لماذا يمثل الذكاء الاصطناعي الظل تحديًا فريدًا؟

يواجه قادة الأمن تحديًا غير مسبوق؛ حيث تظهر أدوات ذكاء اصطناعي جديدة باستمرار، كل منها مصمم لحل مشكلة أعمال محددة، ويتم تبنيها بسرعة تفوق قدرة الفرق الأمنية على التقييم. عندما تعتمد فرق التسويق، والموارد البشرية، والمحاسبة، والتطوير، وغيرها على أدوات الذكاء الاصطناعي الجديدة، فإن عمليات المراجعة الأمنية التقليدية غالبًا ما تؤدي إلى تأخيرات طويلة.

كيف يمكنك مطالبة فريق تضاعفت إنتاجيته بالتوقف عن استخدام أداة ذكاء اصطناعي مفضلة بسبب مخاطر أمنية محتملة؟

في كثير من الحالات، لا يمكنك ذلك – لأن اعتماد الذكاء الاصطناعي يكون قد ترسخ بالفعل في سير العمل بحلول وقت تدخل الأمن، مما يجعل الحظر الكامل غير فعال وقد يؤدي إلى صدام بين قادة الأمن والفرق الأخرى.

المشكلة الأكبر أن هذه الأدوات قادرة على الاحتفاظ بالمعلومات الحساسة وإعادة إنتاجها بطرق غير متوقعة. على سبيل المثال، إذا طلبت من ChatGPT وصف شخصيتك بناءً على تفاعلاتك السابقة، فقد يحتفظ بمعلومات قديمة عنك.

تتفاقم هذه المشكلة عندما تعمل أدوات الذكاء الاصطناعي كخدمات SaaS، حيث يتم إرسال البيانات إلى منصات خارجية للتدريب، مما يضيف طبقة جديدة من المخاطر الأمنية خارج نطاق التحكم التقليدي.

بناء ثقافة الابتكار الآمن

تعرف الفرق الأمنية الناجحة أن تأمين تبني الذكاء الاصطناعي ليس مجرد تحدٍ تقني؛ بل هو تحدٍ ثقافي أيضًا. بدلاً من الاستجابة الدائمة لاستخدام أدوات الذكاء الاصطناعي غير المصرح بها، تقوم هذه الفرق ببناء “ثقافة أمنية إيجابية للذكاء الاصطناعي” تدعم الابتكار مع الحفاظ على الرقابة الأمنية.

كيف يبدو هذا عمليًا؟

  • لجان حوكمة الذكاء الاصطناعي التي تجمع بين فرق الأمن، وتكنولوجيا المعلومات، والقانون، والأعمال لوضع إرشادات واضحة للتبني الآمن.
  • اكتشاف تلقائي لاستخدام الذكاء الاصطناعي الظل لتوفير رؤية فورية حول التطبيقات غير المصرح بها وتدفقات البيانات.
  • سياسات واضحة وقابلة للتنفيذ لتوعية الفرق بالأدوات المعتمدة، وكيفية استخدامها بأمان.

الخطة: كيف تنجح في عصر الذكاء الاصطناعي الظل؟

الخطوات الفورية:

  1. تحديد تعرضك للذكاء الاصطناعي باستخدام أدوات كشف الذكاء الاصطناعي الظل بدلاً من الاعتماد على الإبلاغ الذاتي.
  2. تحديد البيانات الحساسة ووضع سياسات واضحة لحمايتها من الأدوات غير المصرح بها.
  3. فرض سياسات أمن الذكاء الاصطناعي باستخدام حلول مثل CASBs وSSPM وDLP المدركة للذكاء الاصطناعي لمنع مشاركة البيانات غير المصرح بها.

الاستراتيجيات طويلة المدى:

  • بناء إطار حوكمة للذكاء الاصطناعي يتطور مع تطور الأعمال لضمان بقاء السياسات ذات صلة.
  • الاستثمار في تدريب أمني خاص بالذكاء الاصطناعي لشرح المخاطر بدلًا من مجرد حظر التطبيقات.
  • نشر مراقبة مستمرة لاكتشاف الأدوات غير المصرح بها فور ظهورها.

كيف تساعد Reco في تأمين الذكاء الاصطناعي الظل؟

لا يمكن للفرق الأمنية مطاردة كل أداة ذكاء اصطناعي تدخل إلى المؤسسة. علاوة على ذلك، مطالبة الموظفين بالإبلاغ عن كل أداة يستخدمونها ليست استراتيجية قابلة للتنفيذ. رغم أن الحلول التقليدية مثل CASBs والإضافات إلى المتصفحات توفر بعض الرؤية، إلا أنها تفشل في التعرف على مساعدي الذكاء الاصطناعي أو الأدوات التي تتشارك في نفس النطاق مع الخدمات المعتمدة.

كيف يمكنك استعادة السيطرة على أدوات الذكاء الاصطناعي في مؤسستك؟

Reco توفر الحل.

Reco هي منصة ديناميكية لأمن SaaS تتكيف مع سرعة تطور التطبيقات السحابية. يمكن لـ Reco اكتشاف جميع أدوات الذكاء الاصطناعي الظل قيد التشغيل في بيئتك. ستصدر تنبيهًا فور تشغيل أداة جديدة، مع توفير معلومات حول من يستخدمها، وكيفية المصادقة عليها، ومدى خطورتها. كما ترتب التنبيهات حسب الأولوية بناءً على درجة الخطورة، مما يمكن الفرق الأمنية من اتخاذ إجراءات مناسبة لإدارة المخاطر المرتبطة بالذكاء الاصطناعي الظل.

محمد طاهر
محمد طاهر
المقالات: 134

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


The reCAPTCHA verification period has expired. Please reload the page.