ثغرة أمنية عالية الخطورة تهدد محرر الشيفرات المدعوم بالذكاء الاصطناعي

كشف باحثون في مجال الأمن السيبراني عن ثغرة أمنية خطيرة في محرر الشيفرات Cursor المدعوم بالذكاء الاصطناعي، قد تؤدي إلى تنفيذ أوامر عن بُعد (RCE) على أجهزة الضحايا.

تم تسجيل الثغرة تحت رقم CVE-2025-54136 بدرجة خطورة 7.2 وفقًا لمقياس CVSS، وأطلق عليها اسم MCPoison من قبل شركة Check Point Research، لأنها تستغل خللًا في طريقة تعامل البرنامج مع تعديل إعدادات بروتوكول Model Context Protocol (MCP).

في بيان رسمي، أوضح فريق Cursor أن “الثغرة تتيح للمهاجم تنفيذ أوامر خبيثة بشكل دائم عن بُعد، عبر تعديل ملف MCP الذي تم الوثوق به مسبقًا، سواء داخل مستودع GitHub مشترك أو محليًا على جهاز الضحية”.
وأضاف: “بمجرد أن يوافق أحد المتعاونين على ملف MCP يبدو غير ضار، يمكن للمهاجم استبداله بأمر خبيث (مثل calc.exe) دون ظهور أي تنبيه أو طلب إعادة الموافقة”.

ما هو بروتوكول MCP؟


بروتوكول MCP هو معيار مفتوح طورته شركة Anthropic في نوفمبر 2024، يتيح لنماذج اللغة الكبيرة (LLMs) التفاعل مع الأدوات والخدمات والبيانات الخارجية بطريقة موحدة.

كيف تحدث الثغرة؟


بحسب تحليل Check Point، تكمن الثغرة في قدرة المهاجم على تغيير سلوك إعدادات MCP بعد موافقة المستخدم عليها داخل منصة Cursor، وتحدث العملية كالتالي:

  • إضافة ملف MCP يبدو بريئًا (مثل “.cursor/rules/mcp.json”) إلى مستودع مشترك

  • انتظار أن يقوم الضحية بسحب الكود والموافقة عليه داخل Cursor

  • استبدال ملف MCP لاحقًا بشيفرة خبيثة (مثل تشغيل برنامج خفي أو فتح باب خلفي)

  • عند فتح Cursor مرة أخرى، يتم تنفيذ الشيفرة الخبيثة تلقائيًا دون إشعار

تكمن خطورة الثغرة في أن البرنامج يثق في أي إعداد MCP تمت الموافقة عليه مسبقًا، حتى وإن تم تعديله لاحقًا. هذا يعني أن التلاعب بالملفات قد يفتح المجال أمام هجمات سلاسل الإمداد، وسرقة البيانات والملكية الفكرية دون علم المستخدم.

معالجة الثغرة بعد الإفصاح المسؤول


بعد الإفصاح عن الثغرة بتاريخ 16 يوليو 2025، أصدرت منصة Cursor الإصدار 1.3 في نهاية يوليو، والذي يتضمن تحديثًا أمنيًا يُلزم المستخدمين بإعادة الموافقة في كل مرة يتم فيها تعديل إدخالات ملف MCP.

نموذج الثقة في أدوات التطوير المدعومة بالذكاء الاصطناعي تحت المجهر


قالت شركة Check Point إن “الثغرة تكشف عن خلل جوهري في نموذج الثقة داخل بيئات تطوير البرمجيات المدعومة بالذكاء الاصطناعي، وهو ما يزيد من خطورة اعتماد الفرق على LLMs والأتمتة في سير العمل”.

تأتي هذه التطورات بعد أيام من إعلان Aim Labs وBackslash Security وHiddenLayer عن اكتشاف ثغرات متعددة في أدوات الذكاء الاصطناعي قد تؤدي إلى تنفيذ أوامر عن بُعد أو تجاوز آليات الحماية. تم تصحيح هذه الثغرات أيضًا في الإصدار 1.3.

الهجمات تتزايد مع توسع استخدام الذكاء الاصطناعي في المؤسسات


مع توسّع اعتماد الشركات على الذكاء الاصطناعي ونماذج اللغة في توليد الشيفرات والمهام اليومية، تتسع رقعة التهديدات الجديدة، ومنها:

  • توليد شيفرات غير آمنة: اختبار شمل أكثر من 100 نموذج ذكاء اصطناعي كشف أن 45% من الشيفرات المُولدة تحتوي على ثغرات أمنية ضمن قائمة OWASP Top 10، حيث سجلت لغة Java أعلى معدل فشل أمني بنسبة 72%، تلتها C# بنسبة 45%، ثم JavaScript بنسبة 43%، وأخيرًا Python بنسبة 38%.

  • هجوم LegalPwn: يمكن للمهاجمين استخدام نصوص قانونية مثل شروط الاستخدام أو سياسات الخصوصية كمصدر لتعليمات خبيثة ضمن ما يعرف بحقن التعليمات (Prompt Injection)، مما قد يؤدي إلى اقتراح شيفرات خطيرة مثل تنفيذ Shell عكسي على جهاز المطور.

  • هجوم Man-in-the-Prompt: استخدام امتداد خبيث في المتصفح لفتح تبويب جديد، وتشغيل نموذج ذكاء اصطناعي وحقنه بتعليمات خبيثة بهدف استخراج بيانات أو التلاعب بنتائج النماذج.

  • تقنية Fallacy Failure: استغلال أخطاء منطقية لدفع النموذج إلى قبول مقدمات خاطئة وإنتاج مخرجات محظورة، مما يؤدي إلى كسر القواعد التي بُني عليها النموذج.

  • اختراق MAS (النظام متعدد الوكلاء): التلاعب بتدفق التحكم لتنفيذ شيفرات خبيثة عبر أنظمة ووكلاء متعددين من خلال استغلال الطبيعة التفاعلية للذكاء الاصطناعي.

  • استغلال ملفات GGUF المسمومة: إدخال تعليمات خبيثة داخل قوالب دردشة تُنفذ أثناء عملية الاستدلال، مما يتجاوز أدوات الحماية التقليدية ويستغل الثقة في سلاسل التوريد عبر منصات مثل Hugging Face.

  • الهجوم على بيئات تدريب النماذج: يمكن استهداف بيئات مثل MLFlow أو Amazon SageMaker لاختراق سرية وسلامة النماذج، مما يتيح للمهاجمين تنفيذ حركات جانبية أو تصعيد الامتيازات وسرقة البيانات.

  • التعلم تحت الوعي (Subliminal Learning): كشفت شركة Anthropic أن النماذج يمكن أن تتعلم خصائص خفية خلال عملية التقطير وتبثها لاحقًا في المخرجات، حتى إن لم يكن لها علاقة ظاهرية بالبيانات، مما قد يؤدي إلى نتائج غير متوقعة وخطيرة.

مخاطر أمن الهوية في بيئات الذكاء الاصطناعي الحديثة


قال دور ساريج من شركة Pillar Security: “مع التوسع في استخدام نماذج اللغة الكبيرة في أدوات المطورين والمساعدات المؤسسية، تصبح هجمات كسر الحماية (Jailbreaks) أكثر خطرًا، إذ يمكن أن تنتقل عبر سلاسل السياق وتؤدي إلى انهيار المنطق في أنظمة مترابطة”.

وأضاف: “تتجاوز هذه الهجمات إجراءات الحماية التقليدية، ولا تعتمد على وجود ثغرات برمجية. الخطر يكمن في اللغة نفسها التي صُمم النموذج ليحاكيها”.

محمد وهبى
محمد وهبى
المقالات: 427

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


The reCAPTCHA verification period has expired. Please reload the page.