المواجهة السيبرانية الكبرى.. الأبعاد وراء قرار وقف استخدام أنثروبك بعد خلاف مع البنتاغون

في خطوة غير مسبوقة أثارت ردة فعل واسعة على مستوى السياسات التقنية والأمن القومي، أصدر الرئيس الأمريكي دونالد ترامب توجيهات صارمة بوقف استخدام تكنولوجيا الذكاء الاصطناعي المملوكة لشركة أنثروبك في جميع الوكالات الفيدرالية الأمريكية، وذلك بعد تصعيد علني في الخلاف مع وزارة الدفاع الأمريكية (البنتاغون) حول طريقة استخدام هذه التكنولوجيا في التطبيقات العسكرية المتقدمة.

جذور الصراع: الأمان الأخلاقي مقابل السيطرة العسكرية

يرجع الخلاف بين أنثروبك والبنتاغون إلى مطالبات متكررة من وزارة الدفاع بالسماح بالاستخدام غير المقيد لنموذج الذكاء الاصطناعي الخاص بالشركة، المعروف باسم Claude، في مجموعة من التطبيقات العسكرية. تشمل هذه الاستخدامات المقترحة أنظمة مراقبة جماعية وحتى تطوير أنظمة أسلحة ذاتية التشغيل قادرة على اتخاذ قرارات قتالية بدون تدخل بشري.

في المقابل، تمسكت أنثروبك بقيود أخلاقية صارمة تضمن ألا تُستخدم تقنيتها لهذه الأغراض المثيرة للجدل، بزعم أن هذه الاستخدامات التي تفتقر إلى إشراف بشري كامل قد تشكل خطراً على الحقوق الأساسية للأفراد وعلى المسارات القانونية واشتباهاتها في تجاوز حدود المسؤولية الأخلاقية.

وقد وصل هذا الخلاف إلى ذروته عندما رفض الرئيس التنفيذي للشركة داريو أمودي إزالة تلك الضمانات الأخلاقية، ما دفع القادة العسكريين إلى اعتبار ذلك “عائقاً أمام حرية استخدام التكنولوجيا لأغراض الأمن القومي”.

ترامب والبنتاغون: أمن أم سياسة؟

في منشور قوي على منصة “تروث سوشيال”، قال ترامب إن الحكومة الأمريكية “لا تحتاج ولا تريد” الاعتماد على تكنولوجيا شركة يُنظر إليها على أنها تحاول “فرض شروطها على الجيش الأمريكي”، مكرراً اتهامات بأن الشركة متأثرة بأجندات سياسية أو ما أسماها “اليسار المتطرف”.

ومع أن التوجيه يقضي بوقف فوري في جميع الوكالات، فقد منح ترامب مهلة انتقالية تمتد لستة أشهر لوكالة الدفاع وغيرها من الهيئات التي تعتمد بالفعل على تقنيات أنثروبك، في محاولة لإعادة تنظيم العقود والتقنيات دون تعطيل عمليات مهمة.

إضافة إلى ذلك، أعلن وزير الدفاع بيت هيغسيث تصنيف أنثروبك على أنها “خطر في سلسلة الإمداد”، وهو تصنيف عادة ما يُستخدم ضد شركات يُنظر إليها على أنها مرتبطة بخصوم دوليين مثل الصين أو روسيا. يمكن أن يؤدي هذا التصنيف إلى منع الشركات المتعاقدة مع البنتاغون من التعامل التجاري مع أنثروبك، ما يضاعف من حدّة العقوبات على الشركة.

تداعيات سيبرانبية وأبعاد استراتيجية

هذا القرار له أبعاد تتجاوز الخلاف القانوني أو العقدي؛ فهو يفتح نقاشاً واسعاً حول دور شركات التكنولوجيا في تحديد سياسات استخدام الذكاء الاصطناعي، ومدى قدرة الحكومات على فرض توجيهاتها على هذه الكيانات ذات النفوذ التقني.

أولاً، الصراع يعكس تصاعد تأثير الذكاء الاصطناعي في المجالات الأمنية والعسكرية، ويطرح أسئلة حول كيفية ضمان السيطرة البشرية على نظم يمكن أن تمتلك قدرة اتخاذ قرارات ذات عواقب خطيرة. كما يشير هذا النزاع إلى احتمال تراجع الشركات عن مواقف السلامة الأخلاقية عندما تكون أمام ضغوطات حكومية، مما يثير مخاوف حول مستقبل تطوير منظومات آمنة ومسؤولة.

ثانياً، القرار يعزز مكانة المنافسين مثل OpenAI الذين أعلنوا لاحقاً عن اتفاقيات مع البنتاغون لتوفير تقنيات ذكاء اصطناعي ضمن شبكات مصنفة، بينما شددوا أيضاً على أهمية الحفاظ على نفس الضمانات الأمنية الأساسية التي رفضت أنثروبك التخلي عنها.

ثالثاً، هناك تأثير على العلاقات بين القطاع الخاص والحكومة فيما يتعلق بتكنولوجيا الأمن السيبراني؛ فالخطوة الأمريكية قد تدفع شركات أخرى إلى إعادة التفكير في شروط عقودها مع الهيئات الحكومية، خصوصاً في ظل مخاطر قانونية محتملة أو اعتبارها “خطر سلسلة الإمداد”.

وأخيراً، التصعيد يعكس توتراً أكبر بين استراتيجيات الشركات التقنية التي تسعى للحفاظ على سمعة السلامة والمسؤولية من جهة، وبين مصالح الحكومات التي ترى في هذه التكنولوجيا قوة استراتيجية متقدمة يمكن استغلالها لدعم الأمن القومي.

تداعيات صناعية وقانونية

من الناحية الصناعية، سيؤدي هذا القرار إلى إعادة تشكيل خارطة التعاون بين شركات الذكاء الاصطناعي الكبرى والقطاع الدفاعي، وقد يفتح المجال أمام لاعبين آخرين مثل جوجل وxAI لتعزيز حضورهم في العقود الحكومية إذا استطاعوا التوفيق بين متطلبات الأمن والقيود الأخلاقية.

قانونياً، تواجه أنثروبك معركة في المحاكم إذا ما حاولت تحدي تصنيفها كخطر على سلسلة الإمداد، بينما ستترقب الأسواق التقنية الأمريكية والعالمية عن كثب ما إذا كانت هذه الخطوة ستغير قواعد اللعب بين الشركات الحكومية وشركات التكنولوجيا الفائقة.

محمد الشرشابي
محمد الشرشابي
المقالات: 256

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


The reCAPTCHA verification period has expired. Please reload the page.