تحليل تأثير الذكاء الاصطناعي في تطوير أنظمة الأمن السيبراني

أعلنت لينكد إن أنها استخدمت بيانات المستخدمين لتدريب نماذج الذكاء الاصطناعي الخاصة بها دون الحصول على موافقتهم، الأمر الذي أثار انتقادات واسعة بشأن سياسات الخصوصية للمنصة.

وكشف المستشار العام للشركة، بليك لويت، في بيان نشرته المدونة الرسمية، عن تحديثات جديدة في سياسة الخصوصية ستدخل حيز التنفيذ اعتبارًا من 20 نوفمبر المقبل، تتيح للمستخدمين منع استخدام بياناتهم في تدريب الذكاء الاصطناعي مستقبلاً، لكنها لن تشمل البيانات التي تم جمعها بالفعل.

اقرأ أيضا: سامسونج تعزز قدرات الذكاء الاصطناعي في هواتفها لتسهيل التدوين والترجمة

وأوضحت لينكد إن في بيانها أن التحديث الجديد يهدف إلى زيادة الشفافية حول كيفية استخدام البيانات الشخصية لتطوير نماذج الذكاء الاصطناعي وتحسين الخدمات المقدمة عبر المنصة. وتنص السياسة الجديدة على إمكانية استخدام البيانات الشخصية للمستخدمين، مثل التفاعلات مع ميزات الذكاء الاصطناعي أو المحتوى المنشور، لتدريب نماذج الذكاء الاصطناعي وتخصيص الخدمات بشكل أفضل.

تعطيل الخاصية متاح

وأشارت الشركة إلى أنه يمكن للمستخدمين الراغبين في إيقاف مشاركة بياناتهم المستقبلية لتدريب الذكاء الاصطناعي تعطيل هذه الخاصية من إعدادات الخصوصية في حساباتهم. ومع ذلك، أكدت الشركة أن هذا الخيار لن يسري على البيانات التي تم جمعها واستخدامها سابقًا.

وأعربت لينكد إن عن التزامها بتقليل استخدام البيانات الشخصية في مجموعات التدريب من خلال تطبيق تقنيات تعزيز الخصوصية مثل إزالة أو تنقيح المعلومات الحساسة، لكنها حذرت من أن استخدام ميزات الذكاء الاصطناعي لتوليد محتوى قد يؤدي إلى عرض بيانات شخصية ضمن المخرجات.

اقرأ أيضا: مايكروسوفت تشتري إنتاج “محطة طاقة نووية” لتلبية احتياجات الذكاء الاصطناعي

يأتي هذا الإعلان في وقت تواجه فيه الشركات التقنية الكبرى ضغوطًا متزايدة للالتزام بمعايير أعلى من الشفافية وحماية الخصوصية، خاصة مع اقتراب تطبيق قوانين جديدة مثل قانون الذكاء الاصطناعي الأوروبي واللائحة العامة لحماية البيانات (GDPR) التي قد تؤثر على كيفية جمع ومعالجة البيانات في المستقبل.

محمد ياسين
محمد ياسين
المقالات: 6

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


The reCAPTCHA verification period has expired. Please reload the page.