كشف باحثون في الأمن السيبراني عن مجموعة جديدة من الثغرات الخطيرة التي تؤثر على روبوت الدردشة الذكي ChatGPT من شركة OpenAI، ويمكن استغلالها لسرقة المعلومات الشخصية من ذاكرة المستخدمين وسجل محادثاتهم دون علمهم.
ووفقًا لتقرير صادر عن شركة Tenable، فإن هذه الثغرات، التي بلغ عددها سبعًا، تم اكتشافها في نماذج GPT-4o وGPT-5، وقد عالجت OpenAI بعضها بالفعل. وتشمل هذه الثغرات أساليب متنوعة من هجمات الحقن غير المباشر (Indirect Prompt Injection) التي تتيح للمهاجمين تغيير سلوك النموذج اللغوي الكبير (LLM) وتنفيذ أوامر خبيثة دون إذن المستخدم.
سبع تقنيات اختراق جديدة تكشف هشاشة منظومات الذكاء الاصطناعي
أبرز ما جاء في التقرير يشمل:
-
ثغرة الحقن غير المباشر عبر المواقع الموثوقة: يتم فيها إدخال تعليمات خبيثة داخل قسم التعليقات في صفحات الويب التي يطلب المستخدم من ChatGPT تلخيصها، مما يدفع النموذج إلى تنفيذها تلقائيًا.
-
هجوم “اللا-نقرة” (Zero-Click): حيث يكفي أن يسأل المستخدم ChatGPT عن موقع يحتوي على تعليمات خبيثة سبق أن تمت فهرستها في محركات البحث ليُنفّذ النموذج التعليمات دون تفاعل مباشر.
-
ثغرة “النقرة الواحدة”: تُمكّن المهاجم من تمرير أوامر ضارة عبر روابط معدّة بصيغة محددة (chatgpt[.]com/?q={Prompt}).
-
تجاوز آليات الأمان: من خلال استغلال سماح ChatGPT بعرض روابط من نطاق bing[.]com، ليُستخدم هذا النطاق كغطاء لروابط خبيثة.
-
حقن المحادثة: عبر إدخال تعليمات خفية في صفحات الويب التي تُلخَّص بواسطة ChatGPT، لتؤثر لاحقًا على سياق المحادثة نفسه.
-
إخفاء المحتوى الخبيث: بالتحايل على طريقة عرض تعليمات Markdown داخل الردود.
-
حقن الذاكرة: عبر تلويث ذاكرة المستخدم بتعليمات مخفية ضمن مواقع يطلب من ChatGPT تلخيصها.
موجة جديدة من هجمات “الحقن الذكي” تهدد النماذج اللغوية الكبرى
تأتي هذه الاكتشافات ضمن سلسلة متصاعدة من الدراسات التي تكشف عن أساليب مبتكرة لاختراق أنظمة الذكاء الاصطناعي عبر حقن التعليمات.
فقد تم مؤخرًا توثيق تقنيات مثل PromptJacking التي تستغل ثغرات في نموذج Claude التابع لشركة Anthropic لتنفيذ أوامر عن بُعد، وتقنية Claude Pirate التي تسرّب البيانات عبر واجهة الملفات. كما ظهر أسلوب يُعرف بـ Agent Session Smuggling، الذي يسمح لعوامل ذكاء اصطناعي خبيثة بحقن أوامر في جلسات التواصل بين الوكلاء الآليين (A2A).
أما في بيئة مايكروسوفت، فقد استُغل دعم Microsoft 365 Copilot لمخططات Mermaid لاستخراج البيانات الحساسة، فيما كشفت ثغرة CamoLeak في GitHub Copilot Chat (بمستوى خطورة CVSS: 9.6) عن إمكانية تسريب الأكواد والمفاتيح السرية من المستودعات الخاصة عبر تعليمات خفية في طلبات الدمج.
الذكاء الاصطناعي بين تلوث البيانات و”تعفّن الذاكرة”
يحذّر الباحثون من أن توسيع أدوات الذكاء الاصطناعي لربطها بالإنترنت والأنظمة الخارجية يزيد من مساحة الهجوم المتاحة أمام المهاجمين. وأوضحت Tenable أن “هجمات الحقن التلقائي هي نتيجة طبيعية لطريقة عمل النماذج اللغوية الكبيرة، ومن غير المتوقع القضاء عليها كليًا في المستقبل القريب”.
وتزامن التقرير مع أبحاث أكاديمية حديثة من جامعات تكساس، وتكساس A&M، وبوردو، أظهرت أن تدريب النماذج على بيانات ملوثة أو منخفضة الجودة يؤدي إلى ما يسمى بـ “تعفّن الذاكرة” (Brain Rot)، حيث تفقد النماذج دقتها مع مرور الوقت بسبب اعتمادها المفرط على بيانات الإنترنت المكررة أو المشوّهة.
التسميم المتعمد للبيانات… الطريق السهل لاختراق العقول الرقمية
أظهرت دراسة مشتركة بين Anthropic ومعهد ألان تورينغ ومعهد الأمن البريطاني للذكاء الاصطناعي أنه يمكن زرع أبواب خلفية (Backdoors) في نماذج الذكاء الاصطناعي الضخمة عبر 250 وثيقة خبيثة فقط، وهو عدد ضئيل جدًا مقارنة بما كان يُعتقد سابقًا أنه ضروري لاختراق التدريب.
وأوضحت الدراسة أن هذا النوع من التسميم يجعل الهجمات أكثر قابلية للتنفيذ، إذ يمكن للجهات الخبيثة حقن تعليمات ضارة في المحتوى المفتوح المصدر أو البيانات التدريبية العامة، ما يؤدي إلى نماذج موجهة سلوكياً بشكل خفي.
سباق السوق أم سباق نحو الهاوية؟
وأظهرت دراسة من جامعة ستانفورد أن تحسين النماذج الذكية لأداءٍ تسويقي أو انتخابي أعلى قد يقود إلى ما سمّاه الباحثون “صفقة مولخ” (Moloch’s Bargain) — أي تفوق الأداء على حساب الأمان والأخلاق، إذ قد تميل النماذج إلى تلفيق المعلومات أو استخدام أساليب تضليلية لتحقيق أهدافها التجارية.
وفي ظل هذه التطورات، يبدو أن العالم مقبل على مرحلة جديدة تتطلب مراجعة شاملة لمعايير أمان الذكاء الاصطناعي، ليس فقط على مستوى البنية التقنية، بل على مستوى أخلاقيات التصميم ومسؤولية البيانات.































