كيفية توجيه تبني الذكاء الاصطناعي: إطار عمل شامل لمسؤولي أمن المعلومات

لم يعد مسؤولو أمن المعلومات (CISOs) مجرد حراس للبنية التحتية الرقمية، بل أصبحوا شركاء أساسيين في صياغة استراتيجيات الذكاء الاصطناعي داخل المؤسسات. ومع تزايد الاعتماد على أنظمة الذكاء الاصطناعي التوليدي (GenAI)، يواجه قادة الأمن تحدياً مزدوجاً يتمثل في حماية هذه الأنظمة من التهديدات، وضمان تبنيها بشكل مسؤول يحقق قيمة حقيقية للأعمال. ورغم ذلك، ما زالت الموارد التي تشرح كيفية قيام الـCISO بدور قيادي في هذا المجال محدودة.

إطار CLEAR لإدارة تبني الذكاء الاصطناعي

لمعالجة هذه الفجوة، ظهر إطار عمل CLEAR الذي يهدف إلى مساعدة فرق الأمن السيبراني على تعزيز أمان الذكاء الاصطناعي وتوجيه اعتماده داخل المؤسسات، مع تحقيق التوازن بين الابتكار والحوكمة. ويتكون الإطار من خمسة محاور رئيسية:

  • C – Create an AI Asset Inventory: إنشاء سجل شامل لأصول الذكاء الاصطناعي

  • L – Learn What Users Are Doing: مراقبة وفهم كيفية استخدام الموظفين لتقنيات الذكاء الاصطناعي

  • E – Enforce Your AI Policy: تطبيق سياسات الذكاء الاصطناعي بحزم ومرونة متوازنة

  • A – Apply AI Use Cases: إبراز وتوظيف حالات الاستخدام العملية للذكاء الاصطناعي في الأمن السيبراني

  • R – Reuse Existing Frameworks: الاستفادة من الأطر العالمية القائمة بدلاً من إعادة اختراع العجلة

إنشاء سجل بأصول الذكاء الاصطناعي

تشدد لوائح مثل قانون الذكاء الاصطناعي الأوروبي ومعيار ISO 42001 وإطار عمل NIST AI RMF على ضرورة توثيق جميع أصول الذكاء الاصطناعي المستخدمة داخل المؤسسات. لكن أغلب الشركات تواجه صعوبة في ذلك بسبب اعتمادها على طرق يدوية.
من بين الأساليب الأكثر شيوعاً لتعزيز الرؤية: تتبع المشتريات، تحليل السجلات يدوياً، الاعتماد على أدوات أمان السحابة مثل CASB، مراقبة الهوية عبر Okta أو Entra، توسيع السجلات الحالية لتصنيف الأدوات، أو الاستعانة بأدوات متخصصة توفر مراقبة مستمرة.

فهم سلوكيات المستخدمين مع الذكاء الاصطناعي

حظر أدوات الذكاء الاصطناعي ليس حلاً عملياً، إذ غالباً ما يلجأ الموظفون إلى وسائل بديلة للتحايل على القيود. لذلك، ينبغي لفرق الأمن فهم دوافع الاستخدام وتقديم بدائل آمنة متوافقة مع السياسات المؤسسية. كما أن تدريب الموظفين على الممارسات الآمنة في استخدام الذكاء الاصطناعي أصبح أمراً إلزامياً بموجب القوانين الأوروبية، ما يفرض تعزيز التوعية كجزء من استراتيجية الحوكمة.

تطبيق سياسات الذكاء الاصطناعي بفاعلية

تواجه المؤسسات تحدياً في تحويل سياسات الذكاء الاصطناعي من نصوص مكتوبة إلى إجراءات عملية. تشمل طرق التنفيذ:

  • المتصفحات الآمنة التي تتيح المراقبة المباشرة ولكن قد تؤدي إلى قيود مزعجة.

  • حلول DLP وCASB التي توفر رؤية معمقة لكنها قد تنتج إشعارات خاطئة.
    المفتاح هنا هو تحقيق توازن يضمن الامتثال دون الإضرار بتجربة المستخدم.

توظيف حالات استخدام الذكاء الاصطناعي في الأمن السيبراني

بعيداً عن التركيز على المخاطر، يمكن للذكاء الاصطناعي أن يصبح أداة فعالة للأمن السيبراني نفسه. تشمل أبرز الحالات: الكشف عن التهديدات، حماية البيانات، تعزيز أمن البريد الإلكتروني. إبراز هذه الاستخدامات خلال اجتماعات الذكاء الاصطناعي الداخلية يعزز من مكانة فرق الأمن كمساهمين في الابتكار، لا مجرد منفذين للسياسات.

الاستفادة من الأطر التنظيمية القائمة

بدلاً من بناء هياكل جديدة، يمكن دمج حوكمة الذكاء الاصطناعي ضمن أطر معروفة مثل NIST AI RMF وISO 42001. وقد عزز الإصدار الجديد NIST CSF 2.0 مفهوم “الحوكمة”، مضيفاً عناصر خاصة بإدارة مخاطر الذكاء الاصطناعي وأمن سلسلة التوريد وتوزيع الأدوار والمسؤوليات، مما يوفر أساساً متيناً يمكن للمؤسسات البناء عليه.

تعزيز دور CISO في مسار التحول الرقمي

باتباع إطار CLEAR، يستطيع مسؤولو أمن المعلومات الانتقال من دور المراقب إلى دور الشريك الاستراتيجي في مسار تبني الذكاء الاصطناعي. فمن خلال التوثيق، وفهم الاستخدامات، وتطبيق السياسات، وتوظيف الحالات العملية، والاستفادة من الأطر الدولية، يثبت الـCISO أنه عنصر محوري في نجاح المؤسسة في عصر الذكاء الاصطناعي.

محمد الشرشابي
محمد الشرشابي
المقالات: 177

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


The reCAPTCHA verification period has expired. Please reload the page.