فيديوهات Deepfake للرئيس التنفيذي لـ يوتيوب تستهدف الحصول على بيانتات منشئي المحتوى 

يتم استهداف منشئي محتوى يوتيوب من قبل محتالين يسعون للحصول على بيانات اعتمادهم، باستخدام تكتيكات deepfake لإغرائهم بإحساس زائف بالشرعية، حيث يقوم محتالون بمشاركة فيديوهات مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي (AI) لـ Neal Mohan، الرئيس التنفيذي لـ يوتيوب، يتم إرسالها كفيديوهات خاصة لمنشئي المحتوى على المنصة في محاولة لخداعهم، وتثبيت برامج ضارة، وسرقة بيانات الاعتماد الخاصة بهم.

 

يظهر أحد الفيديوهات على الأقل Mohan وهو يعلن عن تغييرات في آلية تحقيق الدخل لمنشئي المحتوى. ويستغل المحتالون أدوات داخل المنصة للربط بمحتوى ضار، وعند النقر عليه، يتم توجيه المنشئ إلى صفحة تطلب منه تأكيد “شروط يوتيوب المحدثة” عن طريق تسجيل الدخول إلى حسابه. وبمجرد إدخال بيانات الاعتماد، يتمكن الجهة الفاعلة الخبيثة من سرقتها، ثم يتم تحديث الصفحة وإخطار المستخدم بأن “قناته قيد الانتظار الآن”.

 

وقد ذكرت يوتيوب مستخدميها بأنها لن تحاول أبدًا الاتصال بهم أو مشاركة معلومات من خلال فيديو خاص.

“إذا تمت مشاركة فيديو معك بشكل خاص يدعي أنه من يوتيوب، فإن الفيديو عبارة عن عملية احتيال تصيدية”، وفقًا لمنصة مشاركة الفيديوهات، التي قدمت خطوات حول كيفية الإبلاغ عن محتوى deepfake.

ولكن بينما قد تكون هذه المحاولة الأولى للمحتالين لانتحال شخصية الرئيس التنفيذي لـ يوتيوب، فإن الفيديوهات التي تم إنشاؤها بواسطة الذكاء الاصطناعي (وخاصة deepfakes) منتشرة على نطاق واسع منذ فترة. ومع ذلك، أصبح من الصعب اكتشافها مع تقدم التكنولوجيا.

“في عام 2019، كان من السهل اكتشاف deepfakes بسبب تناقضات مثل الرمش غير الطبيعي أو لون البشرة، ولكن هذه العلامات أصبحت الآن أقل وضوحًا”، قال Randolph Barr، كبير مسؤولي أمن المعلومات في Cequence، في بيان عبر البريد الإلكتروني.

 

وأضاف: “مع استمرار تطور التكنولوجيا مع استنساخ الأصوات، وتحسين deepfakes، والروبوتات المدعومة بالذكاء الاصطناعي، ستزداد هذه الهجمات تعقيدًا. إنها لا تستهدف عددًا قليلاً من الضحايا فحسب، بل قد تستهدف آلافًا في وقت واحد [كما هو الحال مع يوتيوب]، ومع قدرة الذكاء الاصطناعي على توطين المحتوى، أصبحت هذه العمليات الاحتيالية أكثر صعوبة في الاكتشاف.”

 

Deepfakes موجودة بالفعل

على سبيل المثال، هناك دراسة أجرتها Trend Micro في عام 2022، وجدت أن جميع العناصر اللازمة لإنشاء deepfakes كانت متاحة بالفعل في الأسواق السرية والمنتديات المفتوحة.

ووجد الباحثون أن التصيد المدعوم بـ deepfakes، من بين تهديدات أخرى، كان يعيد تشكيل مشهد التهديدات، حيث تحول من تهديد افتراضي إلى تهديد حقيقي للغاية بسرعة كبيرة. وتقدم منصات متعددة، مثل GitHub، كود المصدر لتطوير deepfakes لأي شخص مهتم، كما أن الصور عالية الجودة للشخصيات العامة متاحة بسهولة وتنتظر التلاعب بها.

محمد طاهر
محمد طاهر
المقالات: 134

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


The reCAPTCHA verification period has expired. Please reload the page.