خوارزمية جديدة بإمكانها إرباك أنظمة التعرف الآلي على الصوت

تمكن فريق بحثي من تطوير تقنية جديدة تهدف إلى إحباط هجمات الاحتيال الهاتفي الصوتي (Vishing) المعتمدة على أنظمة الذكاء الاصطناعي. وتعتمد التقنية على إدخال اضطرابات صوتية مدروسة في إشارات صوت الضحية، مما يؤدي إلى إرباك نظام التعرف التلقائي على الكلام (ASR) المستخدم من قِبل المهاجم.

 تشويش طبيعي يحافظ على وضوح الصوت البشري

تعتمد المنصة على خوارزمية تشويش  تستخدم انعكاسات صوتية وترددية طبيعية مثل الصدى والرنين، دون التأثير على قدرة الإنسان على فهم الصوت. وبهذا الأسلوب، يتم استهداف الحلقة الأضعف في سلسلة هجوم المحتال، وهي قدرة النظام الآلي على فهم الكلام، دون عرقلة التواصل الطبيعي مع المتصل البشري.

آلية دفاع ضد الذكاء الاصطناعي في الهجمات الصوتية

الهجمات الصوتية التي تعتمد على نماذج لغوية ضخمة (LLMs) أصبحت شائعة، حيث تُستخدم برامج قادرة على محاكاة أصوات بشرية وإجراء محادثات مقنعة لخداع الضحايا. ومع تزايد دقة أدوات التعرف على الكلام، بات من الضروري إيجاد حلول دفاعية تواكب تطور هذه الأدوات، وهنا يأتي دور ASRJam كوسيلة للحماية الاستباقية.

أثر أمني واعد في مواجهة الاحتيال الهاتفي

تشير نتائج الدراسة إلى أن النظام نجح في عرقلة فعالة للهجمات دون التأثير على تجربة المستخدم الشرعي. وتُعدّ هذه المبادرة خطوة متقدمة في مواجهة التهديدات السيبرانية غير التقليدية، وخاصة تلك التي تستغل التفاعل الصوتي لاختراق الأفراد واستدراجهم للكشف عن معلومات حساسة.

محمد وهبى
محمد وهبى
المقالات: 427

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


The reCAPTCHA verification period has expired. Please reload the page.