أعلنت شركة Meta مؤخرًا أنها ستفتح سلسلة Llama من نماذج الذكاء الاصطناعي أمام الوكالات الحكومية الأمريكية والمقاولين ذوي الصلة لتطبيقات الأمن القومي. وكان الهدف من هذه الخطوة هو الاستجابة للمخاوف من احتمال استغلال ذكاءها الاصطناعي "المفتوح" من قبل الخصوم الأجانب وإظهار دعم ميتا للأمن القومي. وسيقدم محرر Downcodes تفسيرًا تفصيليًا لهذه الحادثة، وتحليل الدوافع وراءها، وتأثيرها المحتمل، والمناقشة الناتجة حول سلامة الذكاء الاصطناعي.
أعلنت شركة Meta Corporation مؤخرًا أنها ستفتح سلسلة Llama من نماذج الذكاء الاصطناعي أمام الوكالات الحكومية الأمريكية والمقاولين ذوي الصلة لدعم تطبيقات الأمن القومي.
وتهدف هذه الخطوة إلى تبديد التصورات بأن الذكاء الاصطناعي "المفتوح" يمكن أن يمكّن الخصوم الأجانب. وقال ميتا في تدوينة: "يسعدنا أن نؤكد أن اللاما سيكون متاحًا للوكالات الحكومية الأمريكية، بما في ذلك تلك التي تركز على برامج الدفاع والأمن القومي، بالإضافة إلى شركاء القطاع الخاص الذين يدعمون هذه الجهود".
للترويج لهذا المشروع، عقدت Meta شراكة مع عدد من الشركات المعروفة، بما في ذلك Accenture وAmazon Web Services وAndiel وBooz Allen وDatabricks وDeloitte وIBM وLeidos وLockheed Martin وMicrosoft وOracle وPalantir وScale AI وSnowflake. . ستساعد هذه الشركات في تطبيق نموذج اللاما على مجموعة متنوعة من مهام الأمن القومي.
على سبيل المثال، تستخدم Oracle اللاما لمعالجة وثائق صيانة الطائرات، ويعمل Scale AI على ضبط اللاما بشكل دقيق لمهام أمنية وطنية محددة. تخطط شركة Lockheed Martin لتوفير اللاما لعملائها في مجال الدفاع لمساعدتهم في إنشاء كود الكمبيوتر وما إلى ذلك.
بشكل عام، تحظر سياسة Meta على المطورين استخدام Llama في المشاريع العسكرية أو الحربية أو المتعلقة بالتجسس. ومع ذلك، في هذه الحالة، قررت ميتا إجراء استثناء والسماح للوكالات والمقاولين المرتبطين بالحكومة الأمريكية باستخدام اللاما، بالإضافة إلى الوكالات المماثلة في المملكة المتحدة وكندا وأستراليا ونيوزيلندا.
ومن الجدير بالذكر أن هناك تقارير حديثة تفيد بأن بعض الباحثين المرتبطين بجيش التحرير الشعبي الصيني استخدموا نسخة قديمة من نموذج اللاما (Llama2) لتطوير روبوت محادثة يركز على الجيش مصمم لجمع ومعالجة المعلومات الاستخبارية لتوفير القرار التشغيلي. صنع المعلومات. ردت ميتا بأن استخدام النموذج كان "غير مصرح به" وينتهك سياسة الاستخدام المقبول للشركة. ومع ذلك، أثار الحادث نقاشًا واسع النطاق حول إيجابيات وسلبيات الذكاء الاصطناعي المفتوح.
ومع تطبيق الذكاء الاصطناعي في الاستخبارات العسكرية والمراقبة والاستطلاع، ظهرت المخاطر الأمنية ذات الصلة تدريجياً. تظهر دراسة أجراها معهد AI Now أن أنظمة الذكاء الاصطناعي الحالية تعتمد على البيانات الشخصية التي يمكن للخصوم استخراجها واستخدامها كسلاح. وفي الوقت نفسه، تعاني أنظمة الذكاء الاصطناعي أيضًا من مشاكل مثل التحيز والوهم، ولا يوجد حل فعال حاليًا. ويوصي الباحثون بتطوير أنظمة ذكاء اصطناعي مخصصة معزولة عن النماذج "التجارية".
على الرغم من أن ميتا تدعي أن الذكاء الاصطناعي المفتوح يمكن أن يسرع أبحاث الدفاع ويعزز المصالح الاقتصادية والأمنية للولايات المتحدة، إلا أن الجيش الأمريكي لا يزال حذرًا بشأن اعتماد هذه التكنولوجيا. وحتى الآن، الجيش هو الوحيد الذي نشر الذكاء الاصطناعي التوليدي.
أثارت خطوة ميتا مناقشات واسعة النطاق حول قضايا الأخلاق والسلامة المتعلقة بتطبيقات الذكاء الاصطناعي في مجال الدفاع، ولا يزال يتعين رؤية تأثيرها على المدى الطويل. سيستمر محرر Downcodes في الاهتمام بأحدث التطورات في هذا المجال وتقديم المزيد من التحليلات والتقارير المتعمقة للقراء.