أعلنت شركة Google عن تعاونها مع NVIDIA وHiddenLayer لإطلاق مكتبة بايثون جديدة تحت اسم “model-signing”، تهدف إلى توقيع نماذج التعلم الآلي (ML) والتحقق من صحتها، مما يعزز أمان سلسلة التوريد الخاصة بالذكاء الاصطناعي، ويحمي من التهديدات المتزايدة مثل:
-
تسميم النماذج والبيانات (Model & Data Poisoning)
-
حقن التعليمات (Prompt Injection)
-
تسريب التعليمات (Prompt Leaking)
-
التحايل على التعليمات (Prompt Evasion)
لماذا مكتبة model-signing مهمة؟
في ظل التوسع المتسارع في استخدام نماذج الذكاء الاصطناعي في التطبيقات الصناعية والتجارية، أصبحت سلاسل توريد البرمجيات هدفًا رئيسيًا للهجمات السيبرانية. وتحديدًا في مجال الذكاء الاصطناعي، حيث يمكن للمهاجمين تعديل النماذج أو إدخال تعليمات خبيثة، مما يؤدي إلى تلاعب في مخرجات النماذج أو تسريب بيانات المستخدمين.
كيف تعمل مكتبة model-signing؟
توفر المكتبة آلية تعتمد على التوقيعات الرقمية – مثل تلك التي تستخدمها Sigstore – والتي تُمكّن المطورين من ضمان أن النموذج المستخدم في التطبيق هو نفسه الذي تم إنشاؤه وتوقيعه من قبلهم. أي تغيّر في النموذج يتم اكتشافه على الفور عبر التحقق من التوقيع، مما يمنع أي تعديل أو استبدال خفي.
قالت Google: “من خلال استخدام التوقيعات الرقمية، نتيح للمطورين والمستخدمين التحقق من صحة النماذج وتوثيق مصدرها، مما يمنع التلاعب ويعزز الثقة في سلسلة التوريد الخاصة بالذكاء الاصطناعي.”
التزامن مع معيار جديد في Python
تزامن الإعلان مع توحيد تنسيق ملفات الإغلاق (lock files) رسميًا في لغة Python، وذلك ضمن مقترح تحسين PEP 751. التنسيق الجديد يُعرف باسم pylock.toml ويعتمد على بنية TOML لتوثيق:
-
نسخ الاعتمادات (dependencies) الدقيقة
-
تجزئة الملفات (file hashes)
-
مصادر التثبيت (installation sources)
-
أهمية الخطوة في مجال الأمن السيبراني
رغم أن PEP 751 لا يغطي جميع أنواع الهجمات على سلسلة التوريد (مثل typosquatting أو اختراق حسابات الصيانة)، إلا أنه يوفر بنية قوية للتدقيق الأمني واكتشاف أي تلاعب. وتكمن أهمية هذا التنسيق في كونه مرجعًا موثوقًا لكل إصدار وتبعياته، مما يسهل تتبع الثغرات والتصدي لها.