شهد العام الماضي ارتفاعًا غير مسبوق في هجمات سلسلة التوريد المدعومة بالذكاء الاصطناعي (AI-enabled supply chain attacks) بنسبة بلغت 156%، في إشارة إلى تحول خطير في ميدان التهديدات السيبرانية.
ويحذر تقرير جديد بعنوان «دليل الخبراء للرؤساء التنفيذيين للأمن المعلوماتي (CISO’s Expert Guide)» من أن أدوات الدفاع التقليدية لم تعد كافية، إذ فشلت في مواجهة برمجيات خبيثة أصبحت متعددة الأشكال، واعية بالسياق، متنكرة لغويًا، ومراوغة زمنيًا، ما يجعل اكتشافها أكثر صعوبة من أي وقت مضى.
وتشير البيانات إلى أن متوسط زمن اكتشاف الخرق الأمني ارتفع إلى 276 يومًا وفق تقرير IBM لعام 2025، فيما قد تمتد المدة أكثر في الهجمات التي يُسهم الذكاء الاصطناعي في تنفيذها.
من الثغرات التقليدية إلى الاختراق الذكي
كانت هجمات سلسلة التوريد في السابق تعتمد على سرقة بيانات الدخول أو تعديل التحديثات الشرعية، أما اليوم فقد تحولت إلى اختراقات مدفوعة بالذكاء الاصطناعي قادرة على دراسة آليات الدفاع والتكيّف معها.
حادثة PyTorch خير مثال على ذلك، إذ زرع المهاجمون حزمة خبيثة باسم torchtriton في مستودع PyPI، مموّهة كاعتماد رسمي، لتخترق آلاف الأنظمة خلال ساعات وتسرّب بيانات من بيئات تعلم الآلة.
لكن المشهد تطوّر إلى مستوى أعمق مع ثلاث هجمات بارزة:
-
مجموعة NullBulge (2024): استهدفت مستودعات GitHub وHugging Face عبر أكواد مفتوحة المصدر تحوي حمولة خبيثة بلغة Python، تنقل البيانات عبر Discord وتزرع فدية مخصصة من نوع LockBit.
-
هجوم مكتبة Solana Web3.js (ديسمبر 2024): تمكّن المهاجمون من نشر إصدارات خلفية (1.95.6 و1.95.7) بعد اختراق حساب نشر رسمي، وسرقة مفاتيح خاصة لمحافظ العملات الرقمية بقيمة قاربت 190 ألف دولار خلال خمس ساعات فقط.
-
ثغرات Wondershare RepairIt (سبتمبر 2025): كشفت بيانات حساسة في ملفات التطبيق نتيجة وجود بيانات اعتماد سحابية مكشوفة، ما أتاح تعديل نماذج الذكاء الاصطناعي وإطلاق هجمات سلسلة توريد ضد المستخدمين.
لماذا تفشل أدوات الأمن التقليدية؟
تتعامل المؤسسات مع تهديدات اليوم بأدوات الأمس، في وقت بات فيه المهاجمون يستخدمون الذكاء الاصطناعي كقوة هجومية قادرة على التكيّف.
أبرز أسباب الفشل تتمثل في:
-
التحليل الثابت (Static Analysis) وعوامل التوقيع (Signatures) غير فعّالة أمام البرمجيات المتغيرة باستمرار.
-
الشخصيات الوهمية (SockPuppet Personas) التي تُنشئها أنظمة الذكاء الاصطناعي، وتبني سمعة تطويرية على GitHub قبل إدخال باب خلفي.
-
التلاعب بالبيانات التدريبية (Data Poisoning) لزرع تعليمات خبيثة داخل النماذج الذكية نفسها.
-
هجمات التصيّد المتقدمة التي تستخدم الذكاء الاصطناعي لكتابة طلبات سحب كود وتعليقات تقنية مقنعة أكثر من المساهمين الحقيقيين.
في ظل هذه التطورات، يصبح الاكتشاف الآلي القائم على التواقيع عاجزًا أمام برمجيات تتغيّر يوميًا وتُخفي نواياها داخل وظائف تبدو مشروعة.
الإطار الدفاعي الجديد ومتطلبات الامتثال
بدأت مؤسسات رائدة في اعتماد دفاعات جديدة مخصصة للذكاء الاصطناعي، من أبرزها:
-
الكشف الذكي للرمز البرمجي (AI-Specific Detection): كما في مشروع OSS-Fuzz من Google الذي يحلل الأنماط الإحصائية للشفرة لتحديد مصدرها الآلي.
-
تحليل السلوك والأنماط الزمنية (Behavioral Provenance Analysis): يعتمد على مراقبة توقيتات الالتزامات وتعليقات المطورين لرصد الشذوذ السلوكي.
-
الذكاء الاصطناعي الدفاعي (Defensive AI): كما في أدوات Microsoft Counterfit وGoogle AI Red Team القادرة على اكتشاف البرمجيات المتولدة آليًا.
-
دفاع زمن التشغيل (Zero-Trust Runtime Defense): نهج افترض الاختراق وركّز على العزل الذاتي داخل التطبيق، على غرار ما طبّقته Netflix في أنظمتها.
-
التحقق البشري (Proof of Humanity): من خلال توقيعات GPG لمساهمات GitHub، ما يرفع كلفة التزوير أمام المهاجمين.
في المقابل، تفرض التشريعات الأوروبية مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي (EU AI Act) التزامات صارمة تشمل: توثيق استخدام الذكاء الاصطناعي، إجراء تقييمات دورية للمخاطر، والإبلاغ عن الحوادث خلال 72 ساعة. وتصل الغرامات إلى 35 مليون يورو أو 7% من الإيرادات العالمية في حال المخالفات الجسيمة.
أما على مستوى الإجراءات العملية، فينصح الخبراء الرؤساء التنفيذيين للأمن المعلوماتي (CISOs) بـ:
-
فورًا: تدقيق الاعتمادات البرمجية لاكتشاف الحزم المتحايلة (typosquatting) وتفعيل التوقيع الرقمي للالتزامات.
-
خلال شهر: دمج تحليلات سلوكية في خطوط CI/CD وتفعيل حماية زمن التشغيل للتطبيقات الحرجة.
-
خلال ربع عام: إدراج أدوات كشف موجهة للذكاء الاصطناعي ووضع خطة استجابة متخصصة لهجمات AI.






























