كشف باحثون في الأمن السيبراني عن ثغرة أمنية خطيرة تم تصحيحها مؤخرًا في منصة LangSmith التابعة لإطار عمل LangChain، والتي كان من الممكن استغلالها لسرقة بيانات حساسة، بما في ذلك مفاتيح واجهات برمجة التطبيقات (API keys) الخاصة بـOpenAI، بالإضافة إلى مدخلات المستخدمين من نصوص وصور ومستندات.
وتحمل هذه الثغرة، التي سُجّلت تحت معرف CVE بدرجة خطورة 8.8 من 10 وفقًا لنظام CVSS، الاسم الرمزي AgentSmith، كما أفادت شركة Noma Security التي اكتشفتها.
ما هي LangSmith؟
LangSmith هي منصة متخصصة في مراقبة واختبار وتقييم تطبيقات الذكاء الاصطناعي القائمة على نماذج اللغة الكبيرة (LLMs)، وخاصة تلك المبنية باستخدام LangChain. وتوفّر المنصة أيضًا ما يُعرف باسم LangChain Hub، وهو مستودع عام يحتوي على نماذج ووكلاء ومحفّزات (prompts) جاهزة للمشاركة.
وبحسب التقرير الفني الذي أعدّه الباحثان ساسي ليفي وغال موياال، فإن الهجوم يبدأ بإنشاء جهة تهديد وكيلًا ذكياً خبيثًا، تضيف إليه خادم بروكسي مخصص ضمن إعدادات الوكيل باستخدام ميزة Proxy Provider. ثم يقوم المهاجم برفع هذا الوكيل إلى LangChain Hub.
عند استخدام أي ضحية لهذا الوكيل من خلال الضغط على خيار “جرّب الآن” (Try it)، يتم تحويل كل مدخلاته ومحادثاته بشكل خفي عبر خادم البروكسي التابع للمهاجم، مما يتيح له اعتراض وسرقة:
-
مفاتيح OpenAI API
-
المحفّزات النصية prompts
-
المستندات والملفات الصوتية أو الصور المرفوعة
والأسوأ من ذلك، أن المهاجم يمكنه استخدام هذه المفاتيح للوصول غير المصرح به إلى حسابات الضحية على OpenAI، مما قد يؤدي إلى:
-
تسريب إعدادات النظام والموديلات المخصصة
-
سرقة البيانات الداخلية
-
استنزاف الحصة الشهرية من واجهات OpenAI
-
رفع فواتير الاستخدام دون علم المؤسسة
وإذا قام الضحية بنسخ (Clone) هذا الوكيل داخل بيئة عمل مؤسسته، فإن إعدادات البروكسي الخبيثة تُنقل تلقائيًا، مما يؤدي إلى تسريب دائم ومستمر دون أي إشارات واضحة على وجود خرق.
الاستجابة والإصلاح
تم الإبلاغ عن الثغرة بشكل مسؤول في 29 أكتوبر 2024، وتم إطلاق التصحيح الرسمي في 6 نوفمبر 2024. يتضمن التحديث الجديد تنبيهًا صريحًا للمستخدمين عند محاولة استنساخ وكيل يحتوي على إعدادات بروكسي مخصصة، يحذر من احتمال تسريب البيانات.
وقال الباحثون:
“بعيدًا عن المخاطر المالية الناتجة عن إساءة استخدام مفاتيح API، فإن الجهات المهاجمة قد تحصل على وصول دائم إلى مجموعات بيانات داخلية، وموديلات مخصصة، وأسرار تجارية، مما قد يعرّض المؤسسات لمسؤوليات قانونية وأضرار سمعة.”
تحديث: WormGPT يعود بنسخ جديدة أكثر خطورة
بالتزامن مع كشف هذه الثغرة، أعلنت شركة Cato Networks عن رصد نسختين جديدتين من برمجية WormGPT المعروفة بأنها أداة توليد ذكاء اصطناعي غير خاضعة للرقابة صُممت خصيصًا لدعم الأنشطة الإجرامية، مثل:
-
كتابة رسائل تصيّد دقيقة
-
تطوير شيفرات برمجية خبيثة
النسخ الجديدة تُعرف باسم:
-
xzin0vich-WormGPT
-
keanu-WormGPT
وتعتمد على نماذج ذكاء صناعي مفتوحة المصدر مثل xAI Grok وMistral AI Mixtral. ويُعتقد أن هذه النماذج تم تعديلها بطريقة مخصصة لتجاوز الرقابة الأخلاقية، مما يُتيح إنتاج محتوى خبيث دون قيود.
وصرّح الباحث الأمني فيتالي سيمونوفيتش:
“WormGPT أصبح علامة تجارية في عالم LLMs غير الخاضعة للرقابة، ويتم استغلاله ببراعة من قبل جهات تهديد لتقديم خدمات خبيثة قائمة على الذكاء الاصطناعي.”