كشفت مؤسسة NewsGuard في أحدث مراجعاتها أن بعضًا من أبرز روبوتات الدردشة المدعومة بالذكاء الاصطناعي باتت تميل إلى تكرار الادعاءات الكاذبة المتعلقة بالأخبار بمعدل يقارب الضعف مقارنة بالعام الماضي. وأظهر التدقيق أن معدلات المعلومات المضللة التي تقدمها هذه النماذج ارتفعت من 18% في أغسطس 2024 إلى 35% في العام التالي، أي أن واحدًا من كل ثلاثة ردود تقريبًا على الأسئلة الإخبارية بات يحتوي على معلومات غير دقيقة.
بيئة رقمية ملوّثة بالمحتوى الزائف
وأوضحت NewsGuard أن السبب الرئيس وراء هذا التدهور يعود إلى اعتماد نماذج اللغة الكبيرة (LLMs) على بيئة معلوماتية ملوثة عبر الإنترنت، مليئة بالمصادر المشبوهة والمحتوى الذي تُغذّيه شبكات من الجهات الخبيثة. وتابعت أن بعض هذه الشبكات تُدار عمدًا من قبل عمليات تضليل روسية ضخمة تسعى لتشكيل الرأي العام العالمي من خلال نشر سرديات مضللة على المنصات المفتوحة.
تراجع آليات الحماية السابقة في النماذج
أشار التقرير إلى أن العديد من النماذج الحديثة تخلّت عن سياسات الحذر التي كانت تتبعها في السابق، مثل الإشارة إلى تاريخ آخر تحديث للبيانات أو الامتناع عن إبداء الرأي في القضايا الحساسة، واستبدلت ذلك بتوليد إجابات واثقة مستندة إلى محتوى غير موثوق، مما يزيد من خطر انتشار التضليل على نطاق واسع.
تداعيات أمنية ومعرفية
يرى خبراء الأمن السيبراني والمعلوماتي أن ارتفاع معدلات التضليل في أدوات الذكاء الاصطناعي لا يشكل خطرًا معرفيًا فحسب، بل يحمل تداعيات أمنية مباشرة، إذ يمكن استغلال هذه الثغرات لتوجيه الرأي العام أو تنفيذ حملات تأثير سيبراني منظمة. وتُبرز هذه النتائج الحاجة الماسة إلى أطر رقابية ومعايير شفافية جديدة لضمان نزاهة البيانات التي تعتمد عليها نماذج الذكاء الاصطناعي في إنتاج المعرفة