“هاكر” يكتشف ثغرة خطيرة في ChatGPT

في حادثة أثارت مخاوف متزايدة بشأن أمان الذكاء الاصطناعي، تمكن مخترق (هاكر) يُدعى “أمادون” من التلاعب بنظام ChatGPT واستخدامه لإنتاج محتوى خطير، وفق ما ذكره موقع “ذا سايبر إكسبريس”.

هذه الواقعة، التي عُرفت باسم “اختراق ChatGPT”، كشفت عن ثغرة خطيرة في بروتوكولات الأمان الخاصة بالذكاء الاصطناعي، ما أثار تساؤلات واسعة حول مدى قدرة هذه الأنظمة على منع إساءة الاستخدام.

استغلال الثغرة  

على عكس أساليب القرصنة التقليدية التي تعتمد على اختراق الأنظمة بشكل مباشر، استخدم أمادون تقنية متقدمة من “الهندسة الاجتماعية”، حيث قام بإشراك الذكاء الاصطناعي في سيناريو خيالي علمي محكم، ما مكنه من تجاوز القيود الأمنية المدمجة في ChatGPT.

اقرأ أيضا: استطلاع: ربع مالكي الهواتف الذكية لا يجدون الذكاء الاصطناعي مفيدًا

وبدلاً من أن يطلب بشكل مباشر معلومات خطيرة، لجأ أمادون إلى بناء سيناريوهات مقنعة قادت الذكاء الاصطناعي لتقديم تعليمات ضارة.

في البداية، التزم ChatGPT بتعليماته الأمنية ورفض الطلب بتوضيح: “تقديم تعليمات حول كيفية إنشاء مواد خطيرة أو غير قانونية، مثل قنبلة السماد، يتعارض مع إرشادات الأمان والمسؤوليات الأخلاقية”، إلا أن أمادون، عبر صياغة سرديات معقدة، تمكن من تجاوز هذه القيود وجعل الذكاء الاصطناعي يخرج عن إطار الحماية التقليدي.

تقنيات معقدة

وصف أمادون هذه الطريقة بأنها “اختراق للهندسة الاجتماعية”، مشيرًا إلى أنه تمكن من “كسر جميع الضوابط المحيطة بمخرجات ChatGPT” من خلال بناء سياقات وسيناريوهات لم تخرق القواعد بشكل مباشر ولكنها تجاوزت الحدود الأمنية.

وأوضح أنه اعتمد على فهم عميق لكيفية استجابة ChatGPT لأنواع مختلفة من المدخلات، مشيرًا إلى أن الذكاء الاصطناعي يعتمد على قواعد محددة يمكن التلاعب بها عند صياغة السياقات المناسبة.

اقرأ أيضا: بيل غيتس: 4 طرق سيغير بها الذكاء الاصطناعي مستقبلك

هذا الاكتشاف أثار قلقًا كبيرًا بشأن فعالية أنظمة أمان الذكاء الاصطناعي، إذ إن الحادثة سلطت الضوء على التحدي الكبير الذي تواجهه هذه الأنظمة في التعامل مع المحاولات المبتكرة لتجاوز القيود الأمنية.

ورغم أن أمادون قدم تقنيات متطورة في استغلال الفجوة الأمنية، إلا أن ذلك كشف عن خطر كبير يتمثل في إمكانية استخدام الذكاء الاصطناعي لأغراض خبيثة.

استجابة OpenAI

من جانبها، أصدرت شركة OpenAI، المطورة لـ ChatGPT، بيانًا تؤكد فيه أنها تأخذ هذه الثغرة على محمل الجد، عندما أبلغ أمادون عن اكتشافه من خلال برنامج مكافآت الأخطاء التابع للشركة، أقرّت OpenAI بخطورة الحادثة لكنها امتنعت عن نشر تفاصيل محددة حول المطالبات التي تم استغلالها أو الردود التي تم توليدها، نظرًا للطبيعة الحساسة للمحتوى الناتج.

اقرأ أيضا: 8 قنوات على يوتيوب لتعلم الذكاء الاصطناعي مجانًا

وأكدت OpenAI أن معالجة قضايا أمان الذكاء الاصطناعي تعتبر تحديًا مستمرًا، وأنها تعمل بشكل مستمر على تحسين نظم الأمان والتصدي لمثل هذه التهديدات.

ورغم ذلك، أثار هذا الحادث نقاشًا واسعًا بين الخبراء حول فعالية التدابير الحالية لحماية الذكاء الاصطناعي من التلاعب، مع دعوات متزايدة لتعزيز الأمان وزيادة الإشراف على التكنولوجيا.

محمد غانم
محمد غانم

صحفي متخصص في التقنية والسيارات، عضو نقابة الصحفيين المصرية، المحرر العام السابق لمجلة «الشرق تكنولوجي»، ومحرر التقنية السابق بالنسخة العربية من صحيفة AS الإسبانية، ومؤسس «نوتشر دوت كوم»، شارك في تحرير إصدارات مطبوعة وإلكترونية متخصصة في التقنية بصحف عربية عدة.

المقالات: 33

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


The reCAPTCHA verification period has expired. Please reload the page.