ينما يراقب العالم بدهشة التسارع الهائل في تطوّر الذكاء الاصطناعي (AI)، الذي بات يشمل معظم مجالات حياة الإنسان، تدور خلف الكواليس منافسة محتدمة تشبه “حرباً باردة” بين البنتاغون وشركات الذكاء الاصطناعي.

وبحسب معلومات موقع أكسيوس، فإن التوتر بين وزارة الدفاع الأمريكية (البنتاغون) وشركة Anthropic اتسع ليشمل شركات كبرى مثل OpenAI وGoogle وxAI.

تسعى وزارة الدفاع الأمريكية إلى أن تكون هي مبتكرة التكنولوجيا، كما فعلت سابقاً مع الإنترنت ونظام GPS، لكن في مجال الذكاء الاصطناعي يتقدّم القطاع الخاص وشركات مثل OpenAI وGoogle وMicrosoft وAnthropic على المؤسسة العسكرية، وهو ما يثير قلق الجيش الأمريكي.

وفي الوقت الذي ينشغل فيه الناس باستخدام “تشات جي بي تي” وإنشاء الصور عبر نماذج الذكاء الاصطناعي، تدور في الخفاء “حرب باردة” للسيطرة على مفاتيح قوة الذكاء الاصطناعي، لتصبح هذه المنافسة واحدة من أكثر الملفات حساسية في الأمن القومي الأمريكي ومستقبل التكنولوجيا.

البنتاغون يريد السيطرة الكاملة على نماذج الذكاء الاصطناعي

وفقاً لتقارير حديثة نشرها موقع أكسيوس، بدأ وزير الدفاع الأمريكي تغييرات جذرية في الاستراتيجية العسكرية؛ إذ لا يريد البنتاغون الاكتفاء باستخدام نماذج مثل “Claude” أو “GPT-4” لكتابة التقارير فحسب، بل يسعى إلى دمجها مع الأسلحة وأنظمة المراقبة وعمليات اتخاذ القرار العسكري.

ولتحقيق ذلك، يطالب البنتاغون برفع القيود المفروضة على الذكاء الاصطناعي، والتي تصفها الشركات التقنية بأنها ضوابط أخلاقية لا ينبغي تجاوزها.

الخطوط الحمراء لشركات الذكاء الاصطناعي والعقبات أمام البنتاغون

تشير “الخطوط الحمراء” أو المعايير الأخلاقية التي وضعتها شركات الذكاء الاصطناعي إلى رفضها السماح باستخدام هذه التقنيات في اتخاذ قرارات القتل دون تدخل بشري مباشر، إذ ترى أن تجاوز هذه الحدود قد يعرّض البشرية لمخاطر كارثية بسبب غياب الضمير لدى الآلة.

في المقابل، يرى البنتاغون أن هذه القيود قد تعرقل التفوق العسكري الأمريكي، خاصة في ظل المنافسة مع دول مثل الصين، حيث تُعد هذه الضوابط عائقاً أمام التطور العسكري.

كما تعمل بعض الشركات التقنية على تعديل شروط الاستخدام الخاصة بها للسماح بتعاون أكبر مع الجيش الأمريكي، بعد أن كانت قد حظرت ذلك سابقاً.

انقسام شركات الذكاء الاصطناعي بين الرفض والمرونة

تسببت هذه المنافسة في انقسام الشركات إلى معسكرين؛ فشركة Anthropic، المعروفة بتشدّدها في معايير السلامة، ترفض استخدام الذكاء الاصطناعي في الحروب دون تدخل بشري، معتبرة أن منح الآلة حق اتخاذ قرار القتل يمثّل خطراً على البشرية.

وقد أدى هذا الموقف إلى توتر مع البنتاغون، الذي لوّح باعتبار الشركة تهديداً للأمن القومي.

في المقابل، أبدت شركات أخرى مثل OpenAI وxAI مرونة أكبر في مواجهة الضغوط، وتشير التقارير إلى أنها تدرس تعديل شروط الخدمة للسماح بتعاون أوسع مع وزارة الدفاع الأمريكية، إذ إن التحول إلى “شريك استراتيجي” للجيش يعني عوائد مالية ضخمة ودعماً حكومياً واسعاً.

معضلة صعبة: الأمن القومي أم أخلاقيات التكنولوجيا؟

تكشف هذه المنافسة أن شركات التكنولوجيا وصلت إلى مفترق طرق: إما أن تصبح الذراع التكنولوجية للجيش الأمريكي، بما يوفر لها الحماية والدعم في مواجهة المنافسين مثل الصين، لكنها ستخضع بالكامل لهيمنة المؤسسة العسكرية؛ أو أن تدافع عن استقلاليتها الأخلاقية، وهو ما قد يدفع الحكومة إلى فرض سيطرة أكبر على تقنياتها.

وفي خضم هذا الصراع، تبدو البشرية أمام اختبار صعب: هل سيصبح الذكاء الاصطناعي درعاً لحماية السلام، أم سيتحول إلى سلاح يُستخدم دون الرجوع إلى ضمير إنساني، متجاوزاً آخر الخطوط الحمراء للأخلاق في عصر الآلات؟