شهد العام الماضي تسرباً هادئاً لكنه جذري لمساعدات الذكاء الاصطناعي (Copilots) والعوامل الآلية (Agents) إلى داخل تطبيقات البرمجيات كخدمة (SaaS) التي تستخدمها الشركات يومياً. من “زووم” و”سلاك” إلى “مايكروسوفت 365” و”سيلزفورس”، أصبحت مساعدات الذكاء الاصطناعي مدمجة بشكل متزايد في عروض الموردين الكبار. هذا الانتشار السريع، أو ما يمكن تسميته “التشعب غير المنضبط للذكاء الاصطناعي” (AI Sprawl)، يخلق واقعاً جديداً تتحرك فيه البيانات عبر مسارات ديناميكية ومعقدة، حيث يمكن لعامل ذكي واحد أن يربط بين تطبيقات متعددة ويؤتمت المهام عبرها، مكوناً وصلات تكاملية جديدة على الطاير. هذا التحول يعيد تشكيل كيفية عمل الأنظمة، لكنه يكشف في الوقت ذاته عن نقاط ضعف خطيرة في نماذج الأمن والحوكمة التقليدية.
لماذا تفشل ضوابط الحوكمة التقليدية في مواجهة الذكاء الاصطناعي؟
تفترض أدوات الأمن والحوكمة التقليدية للـ SaaS عالماً ثابتاً: أدوار مستخدمين محددة، وواجهات تطبيقات ثابتة، وتغييرات تتم على وتيرة البشر. مساعدات الذكاء الاصطناعي تحطم كل هذه الافتراضات. فهي تعمل بسرعة الآلة، تعبر أنظمة متعددة، وغالباً ما تتمتع بصلاحيات أوسع من المستخدم العادي لأداء مهامها. الأكثر إشكالية أن نشاطها يمتزج بسهولة مع سجلات المستخدمين العاديين وحركة مرور واجهات البرمجة (API) العامة، مما يجعل تمييز أفعال الذكاء الاصطناعي عن أفعال الإنسان مهمة شبه مستحيلة. على سبيل المثال، عندما يجلب “مساعد مايكروسوفت 365” وثائق لا يمكن للمستخدم رؤيتها عادةً، فإنه لا يترك أثراً يذكر في سجلات التدقيق القياسية. كما أن هويات الذكاء الاصطناعي لا تندرج ضمن أدوار إدارة الهوية والوصول (IAM) التقليدية، وتتطلب غالباً صلاحية وصول واسعة جداً للبيانات لتتمكن من العمل، وهو ما يتجاوز بكثير ما يحتاجه أي مستخدم فردي.
التحديات الخفية: انجراف الصلاحيات والاختفاء في السجلات
يبرز تحدٍ رئيسي تحت اسم “انجراف الصلاحيات” (Permission Drift). في العالم الثابت، قد تقوم المراجعة الدورية لصلاحيات التكامل مرة كل ربع سنة. لكن تكاملات الذكاء الاصطناعي يمكن أن تغير قدراتها أو تتراكم صلاحياتها بسرعة، متجاوزة أي مراجعة دورية. كما أن النطاق الذي بدا آمناً الأسبوع الماضي قد يتوسع بصمت (مثل حصول إضافة ذكاء اصطناعي على صلاحيات جديدة بعد تحديث) دون أن يلاحظ أحد. بالإضافة إلى ذلك، تواجه أدوار منع فقدان البيانات (DLP) التقليدية صعوبة كبيرة، لأنه بمجرد منح الذكاء الاصطناعي صلاحية قراءة واسعة، يصبح بإمكانه تجميع وعرض البيانات بطرق لا يمكن لأي قاعدة بسيطة اكتشافها. كل هذه العوامل تعني أن أدوات أمن SaaS الثابتة، التي تركز على تكوينات التطبيقات والأدوار المحددة مسبقاً والسجلات اللاحقة للحدث، لم تعد قادرة على مواكبة هذا العالم الجديد.
نحو حراسة ديناميكية: مبادئ أمن AI-SaaS المتكيف
للتصدي لهذه الفجوات، بدأت فرق الأمن في تبني ما يمكن وصفه بـ “الأمن الديناميكي للذكاء الاصطناعي كخدمة” (Dynamic AI-SaaS Security). على عكس الأمن الثابت الذي يعامل التطبيقات كصوامع منعزلة وغير متغيرة، فإن هذه الطبقة الأمنية تعمل كدرع تكيفي مدفوع بالسياسات يعمل في الوقت الفعلي فوق تكاملات SaaS ومنح OAuth. يمكن تخيلها كطبقة أمنية حية تفهم ما تفعله مساعداتك وعوامل الذكاء الاصطناعي لحظة بلحظة، وتقوم بالتعديل أو التدخل وفقاً للسياسة. من أهم سمات هذا النموذج القدرة على تتبع النشاط عبر جميع التطبيقات، ومراقبة الانزياح في الصلاحيات فور حدوثه، والحفاظ على سجل تدقيق مفصل لكل إجراء – كل نداء، كل ملف تم الوصول إليه، كل تحديث تم إجراؤه بواسطة الذكاء الاصطناعي.
المراقبة الذكية والاستجابة التلقائية: كيف تعمل المنصات الديناميكية؟
تستفيد منصات الأمن الديناميكي من الذكاء الاصطناعي ذاته لمواكبة فيض الأحداث. تتعلم هذه المنصات أنماط السلوك العادية للعوامل الآلية ويمكنها تحديد الأولويات للشذوذات أو المخاطر الحقيقية فقط، مما يحمي فرق الأمن من الغرق في الإنذارات. يمكنها، على سبيل المثال، ربط إجراءات الذكاء الاصطناعي عبر تطبيقات متعددة لفهم السياق وإشعال التنبيهات فقط عند وجود تهديدات حقيقية. كما توفر هذه المنصات قابلية تدقيق غير مسبوقة. لأن طبقة الأمن تتوسط أفعال الذكاء الاصطناعي، فإنها تحتفظ بسجل مفصل لما يفعله عبر الأنظمة. وهذا يعني أنه إذا حدث خطأ ما، يمكن لفريق الأمن تتبع ما حدث بالضبط ولماذا، وإعادة بناء السيناريو من البداية إلى النهاية، وهو أمر كان مستحيلاً في النماذج السابقة.































