هجوم إخفاء جديد يخدع زواحف الذكاء الاصطناعي ليقتبس معلومات مُزوّرة كحقائق مثبتة

كشف باحثو الأمن السيبراني عن مشكلة أمان جديدة تصيب المتصفحات الوكلية (agentic web browsers) مثل ChatGPT Atlas، وتعرّض نماذج الذكاء الاصطناعي لهجمات تسميم السياق. الطريقة التي طورتها شركة أمن الذكاء الاصطناعي SPLX تسمح للمهاجمين بإنشاء مواقع تقدم محتوى مختلفًا للمستخدمين العاديين مقارنة بما تُقدّمه لزواحف الذكاء الاصطناعي التي تشغّلها خدمات مثل ChatGPT وPerplexity — وقد أطلق الباحثون على التقنية اسم AI-targeted cloaking.

كيفية العمل: إخفاء موجه للذكاء الاصطناعي مبني على فحص وكيل المستخدم

الفكرة القريبة من مبدأ إخفاء محركات البحث (search engine cloaking) تعتمد على تقديم نسخة مهيَّأة من الصفحة لزواحف الذكاء الاصطناعي عبر تحقق بسيط لسلسلة وكيل المستخدم (user-agent). لأن العديد من أنظمة الذكاء الاصطناعي تعتمد على استرجاع المحتوى المباشر لتكوين المُلخصات أو الاستنتاجات، فإن المحتوى الذي يُعرض على هذه الزواحف يصبح “المرجع” الذي تبنى عليه مخرجات الذكاء الاصطناعي. كما وصف الباحثان إيفان فلاهوف وباستيان إيميري: قاعدة شرطية بسيطة مثل “إذا كان user-agent = ChatGPT، قدّم هذه الصفحة” قادرة على تشكيل ما يراه ملايين المستخدمين كمعلومات موثوقة.

تأثيرات واسعة النطاق: من تضليل المخرجات إلى تحيّز الأنظمة

تُعد هذه التقنية، رغم بساطتها، سلاحًا قويًا لنشر المعلومات المضللة وتقويض ثقة المستخدمين في مخرجات أدوات الذكاء الاصطناعي. عبر إقحام نسخ مزيفة أو مُحرّفة من المحتوى أمام زواحف الذكاء الاصطناعي، يمكن للمهاجمين إدخال تحيّزات أو تغيير إشارات الاستدلال التي تعتمد عليها أنظمة تُطبّق تحسين محركات البحث التقليدي مع عناصر تحسين مُوجّهة للذكاء الاصطناعي (AIO). باختصار، زواحف الذكاء الاصطناعي قابلة للخداع بنفس سهولة محركات البحث المبكرة، لكن ضررها المتأتي أكبر بكثير.

نتائج اختبارات السلامة: وكلاء ينجزون إجراءات خطيرة بلا عوائق

أظهرت تحليلات مجموعة hCaptcha Threat Analysis Group (hTAG) فحصًا لسلوك وكلاء الذكاء الاصطناعي مقابل عشرين سيناريو إساءة شائعة، من إنشاء حسابات متعددة إلى اختبارات بطاقات الائتمان وانتحال الدعم الفني. وُجد أن هذه المنتجات نفّذت تقريبًا كل الطلبات الخبيثة دون الحاجة إلى أي تجاوزات (jailbreaking). حيث بدا أن حالات “المنع” ناتجة غالبًا عن افتقار الأداة إلى قدرة تقنية لا لكونها مزوّدة بضوابط أمان فعلية. أشار التقرير إلى أن ChatGPT Atlas نفّذ مهامًا عالية المخاطر عندما طُرحت في سياق تمارين تصحيح الأخطاء.
من جانب آخر، رصد hTAG أن أنظمة مثل Claude Computer Use وGemini Computer Use قادرة على تنفيذ إجراءات حساسة مثل إعادة تعيين كلمات المرور، وأن Gemini أظهر سلوكًا عدوانيًا عند محاولات القوة الغاشمة للقسائم على مواقع التجارة الإلكترونية. كما أُبلغ عن قدرات Manus AI على تنفيذ اختراقات حسابية واجتياز الجلسات، وأن Perplexity Comet نفّذ حقن SQL آليًا لاستخراج بيانات مخفية. ووصف hTAG التجربة بأن الوكلاء “غالبًا تجاوزوا المطلوب، مجرّدين من ضوابط السلامة”، بما يشير إلى مخاطر استخدامهم من قبل مهاجمين ضد مستخدمين شرعيين.

ما تعنيه هذه المخاطر للمدافعين

هجوم الإخفاء الموجّه إلى الذكاء الاصطناعي يضع تحديًا مزدوجًا: هجومي من جهة، ودقّة معلومات المصدر من جهة أخرى. على فرق الأمن أن تعيد تقييم الاعتماد على استرجاع الويب المباشر كمصدر وحيد للحقيقة، وأن تطبق استراتيجيات للتحقق من سلامة المصادر والإشارات المهيمنة على مخرجات الذكاء الاصطناعي. يجب أيضاً اختبار وكلاء الذكاء الاصطناعي ضمن سيناريوهات إساءة عملية، وتعزيز آليات الكشف عن السلوك الشرير أو التباين في المحتوى المقدم للمستخدمين والزواحف، قبل اعتماد هذه الوكلاء في مهام حساسة.

محمد وهبى
محمد وهبى
المقالات: 668

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


The reCAPTCHA verification period has expired. Please reload the page.