أعلنت Meta مؤخرًا أنها ستفتح سلسلة Llama من نماذج الذكاء الاصطناعي للوكالات الحكومية الأمريكية ومقاوليها لدعم طلبات الأمن القومي. تهدف هذه الخطوة إلى الاستجابة للمخاوف بشأن الذكاء الاصطناعي المفتوح الذي يحتمل أن يتم استغلاله من قبل المعارضين الأجانب وإظهار مساهمته التكنولوجية في مجال الأمن القومي. أكد Meta أن تطبيق نموذج LLAMA سيخضع لقواعد وقيود صارمة لضمان عدم استخدامه لأغراض غير قانونية أو ضارة. سوف تستكشف هذا المقال في تعمق خلفية Meta's Move والشركاء والمناقشات حول أمن الذكاء الاصطناعي المفتوح الذي تم تشغيله.
أعلنت Meta مؤخرًا أنها ستفتح سلسلة Llama من نماذج الذكاء الاصطناعي للوكالات الحكومية الأمريكية والمقاولين ذات الصلة لدعم طلبات الأمن القومي.
تهدف هذه الخطوة إلى القضاء على تصور أن العالم الخارجي "مفتوح" لمنظمة العفو الدولية قد تغذي المنافسين الأجنبيين. وقال ميتا في منشور مدونة: "يسرنا أن نؤكد أن لاما ستوفر الوكالات الحكومية الأمريكية ، بما في ذلك تلك التي تركز على الدفاع والأمن القومي ، وكذلك شركاء القطاع الخاص الذين يدعمون هذه الجهود".
للترويج لهذا المشروع ، وصل Meta إلى تعاون مع العديد من الشركات المعروفة ، بما في ذلك Accenture و Amazon Web Services و Andyr و Boss Allen و Databricks و Deloitte و IBM و Ledos و Lockheed Martin و Microsoft و Oracle و Palantir و Scale AI و Snowflake. ستساعد هذه الشركات في تطبيق نموذج LLAMA على مختلف مهام الأمن القومي.
على سبيل المثال ، تستخدم Oracle Llama لمعالجة وثائق صيانة الطائرات ، في حين أن Scale AI يتم ضبط LLAMA لمهام أمنية محددة. تخطط Lockheed Martin لتزويد Llama لعملائها الدفاعي لمساعدتهم على إنشاء رمز الكمبيوتر ، إلخ.
عادةً ما تمنع سياسات Meta للمطورين تطبيق Llama على المشاريع العسكرية أو الحرب أو المتعلقة بالتجسس. ومع ذلك ، في هذه الحالة ، قرر Meta استثناء من خلال السماح لاستخدام Llama من قبل الوكالات والمقاولين المتعلقة بالحكومة الأمريكية ، كما ينطبق على وكالات مماثلة في بلدان مثل المملكة المتحدة وكندا وأستراليا ونيوزيلندا.
تجدر الإشارة إلى أنه تم الإبلاغ عن أن بعض الباحثين المتعلقة بجيش التحرير الشعبي الصيني استخدموا النسخة القديمة من نموذج LLAMA (LAMA2) لتطوير دردشة دردشة تركز على الجيش مصممة لجمع ومعالجة المعلومات الاستخباراتية وتوفير اتخاذ القرارات القتالية. معلومة. أجاب ميتا أن استخدام النموذج "غير مصرح به" وانتهاك سياسة الاستخدام المقبولة للشركة. ومع ذلك ، أثار هذا الحادث نقاشًا واسع النطاق حول مزايا وعيوب الذكاء الاصطناعي المفتوح.
مع تطبيق الذكاء الاصطناعي في الذكاء العسكري والمراقبة والاستطلاع ، ظهرت مخاطر أمنية ذات الصلة تدريجياً. توضح دراسة من معهد الذكاء الاصطناعى الآن أن أنظمة الذكاء الاصطناعى الحالية تعتمد على البيانات الشخصية التي يمكن استخلاصها وسلاحها من قبل الخصوم. في الوقت نفسه ، تواجه أنظمة الذكاء الاصطناعي أيضًا مشاكل مثل التحيز والهلوسة ، ولا يوجد حاليًا حل فعال. يوصي الباحثون بتطوير أنظمة الذكاء الاصطناعى المخصصة المعزولة عن نموذج "الأعمال".
على الرغم من أن Meta يدعي أن فتح الذكاء الاصطناعى يمكنه تسريع أبحاث الدفاع وتعزيز المصالح الاقتصادية والأمنية الأمريكية ، إلا أن الجيش الأمريكي لا يزال حذرًا من تبني هذه التكنولوجيا ، ولم ينشر الجيش سوى الذكاء الاصطناعي التوليدي حتى الآن.
النقاط الرئيسية:
يفتح Meta نموذج LLAMA أمام الحكومة الأمريكية ومقاولي الدفاع لدعم طلبات الأمن القومي.
تعاونت العديد من الشركات المعروفة مع META للترويج بشكل مشترك لتطبيق نموذج LLAMA في مجال الدفاع.
أثارت المخاطر الأمنية للذكاء الاصطناعي المفتوح في التطبيقات العسكرية مناقشات ، ودعا الباحثون إلى تطوير نماذج متخصصة.
حققت خطوة Meta توازنًا دقيقًا بين تعزيز التنمية التكنولوجية والأمن القومي ، ولكنها تبرز أيضًا التحديات الأخلاقية والأمنية في تطبيق تكنولوجيا الذكاء الاصطناعي ، والتي تحتاج إلى الانتباه بشكل مستمر والاستجابة بحذر. يتطلب التطوير المستقبلي لـ Open AI إيجاد أفضل مسار بين الابتكار التكنولوجي وضمان الأمن.