جوجل تطلق تقنية “Private AI Compute” لمعالجة الذكاء الاصطناعي بأمان وخصوصية تضاهي المعالجة على الأجهزة

أعلنت شركة جوجل يوم الثلاثاء عن إطلاق تقنية جديدة تعزز الخصوصية تحت اسم Private AI Compute، وهي منصة سحابية آمنة لمعالجة استفسارات الذكاء الاصطناعي (AI) مع الحفاظ على أعلى معايير السرية وحماية البيانات.

وقالت الشركة إن النظام الجديد صُمم “لتحقيق أقصى سرعة وقوة لنماذج Gemini السحابية في تجارب الذكاء الاصطناعي، مع ضمان بقاء بيانات المستخدمين خاصة بهم وغير متاحة لأي جهة أخرى، بما في ذلك جوجل نفسها”.

ووصفت جوجل التقنية بأنها “مساحة آمنة ومحصّنة” لمعالجة البيانات الحساسة بطريقة تشبه المعالجة على الجهاز، ولكن بقدرات ذكاء اصطناعي موسّعة. وتعتمد المنصة على وحدات Trillium TPUs ومعالجات Titanium Intelligence Enclaves (TIE)، ما يمكّن الشركة من استخدام نماذجها المتقدمة دون التفريط في الأمان أو الخصوصية.

بمعنى آخر، صُممت بنية الخصوصية هذه للاستفادة من سرعة الحوسبة السحابية وقوتها، مع الحفاظ على مستويات الأمان التي توفرها المعالجة المحلية على الأجهزة.

بنية أمنية قائمة على العزل والتشفير

تعتمد أعباء العمل الخاصة بوحدات المعالجة المركزية ووحدات TPU في جوجل – أو ما يُعرف بالعُقَد الموثوقة – على بيئة تنفيذ موثوقة (TEE) مبنية على معالجات AMD، تعمل على تشفير الذاكرة وعزلها عن المضيف. وأوضحت الشركة أن هذه البنية تتيح فقط تشغيل المهام الموثقة على العُقد الموثوقة، مع قطع أي وصول إداري إليها، كما أنها مؤمنة ضد محاولات استخراج البيانات ماديًا.

وتدعم البنية أيضًا التحقق المتبادل بين العُقد الموثوقة من خلال التشفير المزدوج، بحيث لا تُفك بيانات المستخدم ولا تُعالج إلا داخل بيئة آمنة معزولة عن البنية التحتية الأوسع لجوجل.

وقالت الشركة: “كل مهمة عمل تتحقق تشفيريًا من بيانات اعتماد المهمة الأخرى، لضمان الثقة المتبادلة داخل بيئة التنفيذ المحمية. ولا تُمنح بيانات الاعتماد إلا بعد اجتياز التحقق بنجاح من attestation الخاص بالعقدة مقابل القيم المرجعية الداخلية، وإذا فشل التحقق، يُمنع إنشاء الاتصال، مما يحمي بيانات المستخدم من المكونات غير الموثوقة”.

سير عمل مؤمَّن ومؤقت بطبيعته

تبدأ العملية عندما يُنشئ عميل المستخدم اتصالًا مشفرًا ببروتوكول Noise مع الخادم الأمامي، ويتحقق كل طرف من هوية الآخر عبر جلسة مشفرة بالكامل باستخدام تقنية Oak لضمان الأصالة وعدم التعديل.

بعد ذلك، يُنشئ الخادم قناة تشفير عبر بروتوكول ALTS للاتصال بالخدمات الأخرى ضمن خط أنابيب الاستدلال السحابي، والذي يتواصل بدوره مع خوادم النماذج العاملة على منصة TPU المحصّنة. ويتميز النظام بأنه “مؤقت بطبيعته”، إذ تُحذف جميع المدخلات ونتائج الاستدلالات فور انتهاء الجلسة، مما يمنع أي مهاجم – حتى لو حصل على صلاحيات عليا – من الوصول إلى بيانات سابقة.

منظومة حماية متعددة الطبقات

أشارت جوجل إلى أن النظام يتضمن طبقات متعددة من الحماية للحفاظ على سلامة البنية ومنع أي تعديل غير مصرح به، من أبرزها:

  • تقليل عدد المكونات والكيانات الموثوقة إلى الحد الأدنى.

  • استخدام تقنية Confidential Federated Compute لجمع التحليلات والرؤى المجمّعة بأمان.

  • تشفير شامل لاتصالات العميل بالخادم.

  • اعتماد التفويض الثنائي لضمان تشغيل كود مصرح وموقع فقط عبر سلسلة توريد البرمجيات.

  • عزل بيانات المستخدم داخل أجهزة افتراضية (VMs) لمنع الاختراق المتسلسل.

  • حماية الأنظمة من الاستخراج المادي للبيانات عبر تشفير الذاكرة ووحدة إدارة إدخال/إخراج الذاكرة (IOMMU).

  • إلغاء أي وصول إلى القشرة الطرفية (Zero Shell Access) في منصة TPU.

  • استخدام موجهات IP Blinding Relays يديرها طرف ثالث لإخفاء مصدر الطلبات.

  • فصل نظام المصادقة والتفويض عن عمليات الاستدلال باستخدام الرموز المجهولة (Anonymous Tokens).

تقييم خارجي وثغرات منخفضة الخطورة

ذكرت شركة NCC Group، التي أجرت تقييمًا خارجيًا لمنصة Private AI Compute بين أبريل وسبتمبر 2025، أنها اكتشفت قناة جانبية زمنية في مكون IP Blinding Relay يمكن – في ظروف محددة – أن تُستخدم لكشف هوية المستخدم. غير أن جوجل صنّفت الخطر بأنه منخفض، نظرًا لأن الطابع متعدّد المستخدمين للنظام يخلق “كمًّا كبيرًا من الضجيج” يجعل الربط بين الاستفسارات والمستخدمين شبه مستحيل.

كما كشفت الشركة الأمنية عن ثلاث ثغرات في تنفيذ آلية attestation قد تؤدي إلى حالات حرمان من الخدمة (DoS) أو هجمات بروتوكولية، مؤكدة أن جوجل تعمل حاليًا على معالجتها.

ورغم اعتماد النظام على عتاد مملوك مركزيًا في منصة Borg Prime، أكدت NCC Group أن جوجل “قلّصت بدرجة كبيرة احتمال تعرض بيانات المستخدمين لأي معالجة غير متوقعة أو وصول خارجي، ما لم تقرر الشركة كمؤسسة القيام بذلك”، مضيفة أن المستخدمين “سيستفيدون من حماية عالية ضد التهديدات الداخلية الخبيثة”.

خطوة جديدة في سباق الخصوصية بين عمالقة التقنية

يأتي هذا التطور موازيًا لجهود شركات أخرى مثل آبل وميتا، اللتين أطلقتا تقنيات Private Cloud Compute (PCC) وPrivate Processing لمعالجة استفسارات الذكاء الاصطناعي بعيدًا عن الأجهزة بطريقة تحافظ على الخصوصية.

وأوضح جاي ياغنيك، نائب رئيس جوجل للابتكار والبحث في مجال الذكاء الاصطناعي، أن التقنية الجديدة “تستخدم التحقق عن بُعد والتشفير لربط جهاز المستخدم ببيئة سحابية مؤمّنة على مستوى العتاد، مما يتيح لنماذج Gemini معالجة البيانات الحساسة ضمن مساحة محمية وخاصة، بحيث تبقى البيانات في متناول المستخدم وحده، دون حتى جوجل نفسها”.

محمد طاهر
محمد طاهر
المقالات: 903

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


The reCAPTCHA verification period has expired. Please reload the page.