Google تكشف عن VaultGemma: نموذج لغوي يحمي الخصوصية بالذكاء الاصطناعي

أعلنت شركة جوجل عن إطلاق VaultGemma، وهو نموذج لغوي ضخم (LLM) صُمم خصيصًا لحماية البيانات الحساسة أثناء مرحلة التدريب. يعتمد النموذج على تقنيات الخصوصية التفاضلية (Differential Privacy) التي تعمل على منع كشف أي بيانات فردية من خلال إضافة ضوضاء محسوبة، مما يجعله خيارًا أكثر أمانًا للتعامل مع المعلومات السرية في قطاعات مثل الرعاية الصحية، والتمويل، والحكومات. ووصفت جوجل النموذج بأنه خطوة متقدمة نحو بناء ذكاء اصطناعي قوي وآمن بالتصميم.

فجوة الأداء والبحث المستمر

أشارت جوجل إلى أن هناك فجوة ما تزال قائمة بين النماذج المدربة بتقنيات الخصوصية التفاضلية وتلك التي لا تستخدمها، إلا أن الشركة أكدت أن هذه الفجوة يمكن تضييقها بشكل منهجي عبر المزيد من الأبحاث المتعلقة بآليات التدريب الآمن.

تقنيات جديدة في انتقاء البيانات

وفي الشهر الماضي، كشفت جوجل عن طريقة جديدة للتعلم النشط تُمكّن من انتقاء البيانات عالية الجودة بشكل أكثر دقة، مما يقلل بشكل كبير من حجم البيانات المطلوبة لعمليات إعادة تدريب النماذج. هذه التقنية تتيح التعامل مع مجموعات بيانات ضخمة تصل إلى مئات المليارات من الأمثلة، واختيار تلك التي يكون لتوصيفها من الخبراء أثر أكبر في تحسين أداء النماذج.

تطبيقات مستقبلية في بيئات سريعة التغير

أوضحت جوجل أن القدرة على إعادة تدريب النماذج باستخدام عدد قليل من الأمثلة فقط تُعد ذات قيمة كبيرة في مجالات تتغير بوتيرة متسارعة، مثل سلامة الإعلانات، حيث يمكن تحديث النماذج بسرعة لمواكبة التحديات المستجدة.

محمد طاهر
محمد طاهر
المقالات: 745

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


The reCAPTCHA verification period has expired. Please reload the page.