تستكشف وزارة الدفاع الأمريكية بنشاط تطبيقات الذكاء الاصطناعي في المجال العسكري وتتعاون مع شركات الذكاء الاصطناعي الرائدة مثل OpenAI وAnthropic. ويهدف هذا التعاون إلى زيادة كفاءة وزارة الدفاع مع الالتزام الصارم بمبدأ عدم استخدام تكنولوجيا الذكاء الاصطناعي في الأسلحة الفتاكة. يستكشف المقال دور الذكاء الاصطناعي في صنع القرار العسكري، فضلاً عن الجدل الأخلاقي حول سلطة صنع القرار المتعلقة بالأسلحة المستقلة للذكاء الاصطناعي، ويوضح موقف البنتاغون الحذر والإشراف الصارم على تطبيق تكنولوجيا الذكاء الاصطناعي.
مع التقدم السريع في تكنولوجيا الذكاء الاصطناعي، يعمل مطورو الذكاء الاصطناعي الرائدون مثل OpenAI وAnthropic بجد للعمل مع الجيش الأمريكي، سعياً إلى تحسين كفاءة البنتاغون مع ضمان عدم استخدام تكنولوجيا الذكاء الاصطناعي الخاصة بهم في صنع أسلحة فتاكة. وقالت الدكتورة رادها بلامب، كبيرة المسؤولين الرقميين والذكاء الاصطناعي في البنتاغون، في مقابلة مع موقع TechCrunch، إن الذكاء الاصطناعي لا يستخدم حاليًا في الأسلحة، لكنه يوفر لوزارة الدفاع مزايا كبيرة في تحديد التهديدات وتتبعها وتقييمها.
ملاحظة لمصدر الصورة: يتم إنشاء الصورة بواسطة الذكاء الاصطناعي وموفر خدمة ترخيص الصورة Midjourney
وذكر الدكتور بلامب أن البنتاغون يعمل على تسريع تنفيذ "سلسلة القتل"، وهي عملية تتضمن تحديد التهديدات وتتبعها وتحييدها، وتتضمن أجهزة استشعار ومنصات وأنظمة أسلحة معقدة. يُظهر الذكاء الاصطناعي التوليدي إمكاناته في مراحل التخطيط والاستراتيجية لسلسلة القتل. وأشارت إلى أن الذكاء الاصطناعي يمكن أن يساعد القادة على الاستجابة بسرعة وفعالية عند مواجهة التهديدات. في السنوات الأخيرة، أصبح البنتاغون قريبًا بشكل متزايد من مطوري الذكاء الاصطناعي. في عام 2024، قامت شركات مثل OpenAI، وAnthropic، وMeta بتخفيف سياسات الاستخدام الخاصة بها لتمكين وكالات الاستخبارات والدفاع الأمريكية من استخدام أنظمة الذكاء الاصطناعي الخاصة بها، لكنها لا تزال تحظر استخدام تقنيات الذكاء الاصطناعي هذه لأغراض تضر البشر. وقد أدى هذا التحول إلى توسع سريع في التعاون بين شركات الذكاء الاصطناعي ومقاولي الدفاع. على سبيل المثال، عقدت شركة Meta، في نوفمبر/تشرين الثاني، شراكة مع شركات من بينها Lockheed Martin وBooz Allen لتطبيق نموذج Llama AI في قطاع الدفاع. وقد توصلت أنثروبيك إلى تعاون مماثل مع بالانتير. على الرغم من أن التفاصيل الفنية المحددة لهذا التعاون غير واضحة، إلا أن الدكتور بلامب قال إن تطبيق الذكاء الاصطناعي في مرحلة التخطيط قد يتعارض مع سياسات الاستخدام للعديد من المطورين الرائدين. كان هناك نقاش ساخن في الصناعة حول ما إذا كان يجب أن تتمتع أسلحة الذكاء الاصطناعي بالقدرة على اتخاذ قرارات الحياة والموت. ذكر بالمر لوكي، الرئيس التنفيذي لشركة Anduril، أن الجيش الأمريكي لديه تاريخ طويل في شراء أنظمة الأسلحة المستقلة. إلا أن الدكتور بلامب نفى ذلك، مشددًا على أنه في كل الأحوال يجب أن يكون هناك من يشارك في اتخاذ قرار استخدام القوة. وأشارت إلى أن فكرة قيام الأنظمة الآلية باتخاذ قرارات الحياة والموت بشكل مستقل هي فكرة ثنائية للغاية، والواقع أكثر تعقيدا بكثير. نظام الذكاء الاصطناعي التابع للبنتاغون هو عبارة عن تعاون بين البشر والآلات، مع مشاركة كبار القادة في عملية صنع القرار. أبرز الملامح: يوفر الذكاء الاصطناعي للبنتاغون مزايا كبيرة في تحديد التهديدات وتقييمها، مما يؤدي إلى اتخاذ قرارات عسكرية أكثر كفاءة. يعمل مطورو الذكاء الاصطناعي بشكل وثيق بشكل متزايد مع البنتاغون، لكنهم يصرون دائمًا على عدم استخدام تكنولوجيا الذكاء الاصطناعي لإيذاء البشر. وتستمر المناقشات حول ما إذا كان يجب أن تتمتع أسلحة الذكاء الاصطناعي بقدرات اتخاذ القرار بشأن الحياة أو الموت، مع تأكيد البنتاغون على أن البشر يشاركون دائمًا.في المجمل، يتمتع الذكاء الاصطناعي بآفاق واسعة للتطبيق في المجال العسكري، ولكن قضاياه الأخلاقية والسلامة تحتاج أيضًا إلى التعامل معها بحذر. إن كيفية تجنب إساءة استخدام تكنولوجيا الذكاء الاصطناعي مع ضمان الأمن القومي ستكون قضية مهمة تتطلب الاهتمام المستمر والحل في المستقبل.