أصدرت META إطارًا جديدًا لسياسة المخاطر الذكاء الذكري المتطورة ، بهدف تقليل مخاطر النماذج المتطورة من الذكاء الاصطناعى واتخاذ تدابير التحكم المقابلة بناءً على مستوى المخاطر. يقسم الإطار نماذج الذكاء الاصطناعى إلى فئتين: عالية الخطورة ومخاطر ، ويصيب الاستراتيجيات المقابلة لمستويات مختلفة ، مثل إيقاف التنمية ، وتقييد حقوق الوصول ، إلخ. تهدف هذه الخطوة إلى تحسين أمن وشفافية تنمية الذكاء الاصطناعي ومنع التهديدات المحتملة مثل تكاثر الأسلحة البيولوجية والاحتيال الاقتصادي.
أصدرت Meta مؤخرًا إطارًا جديدًا لسياسة المخاطر يهدف إلى تقييم وتقليل المخاطر التي تشكلها نماذج الذكاء الاصطناعى المتطورة والتوقف عن تطوير أو الحد من إطلاق هذه الأنظمة إذا لزم الأمر. يوضح الإطار ، الذي يطلق عليه Frontier AI Framework ، كيفية تقسيم Meta على نماذج الذكاء الاصطناعي إلى فئتين: مخاطر عالية الخطورة وحاسمة ، ويتخذ التدابير المقابلة وفقًا لذلك لتقليل المخاطر إلى "المستويات المقبولة".
في هذا الإطار ، يتم تعريف المخاطر الحرجة على أنها قادرة على تسهيل تنفيذ سيناريوهات التهديد المحددة بشكل فريد. المخاطر العالية تعني أن النموذج قد يزيد بشكل كبير من إمكانية تحقيق سيناريوهات التهديد ، ولكنه لا يسهل التنفيذ مباشرة. تشمل سيناريوهات التهديد انتشار الأسلحة البيولوجية ، التي تكون قدراتها قابلة للمقارنة مع العوامل البيولوجية المعروفة ، والأضرار الاقتصادية الواسعة للفرد أو شركة ناتجة عن الاحتيال والاحتيال على نطاق واسع على نطاق واسع.
بالنسبة للنماذج التي تلبي عتبات المخاطر الحرجة ، ستتوقف META من التنمية والوصول المفتوح إلى النموذج إلى عدد قليل من الخبراء ، مع تنفيذ حماية أمنية لمنع المتسللين أو انتهاكات البيانات حيث يكون ذلك ممكنًا تقنيًا وتجاريًا. بالنسبة للنماذج عالية الخطورة ، يقيد META الوصول ويتخذ تدابير تخفيف المخاطر لتقليل المخاطر إلى المستويات المعتدلة ، مما يضمن عدم تحسين النموذج بشكل كبير من قدرات تنفيذ سيناريوهات التهديد.
وقالت Meta إن عملية تقييم المخاطر ستشمل خبراء متعدد التخصصات وقادة الشركات الداخلية لضمان اعتبار الآراء حول جميع الجوانب تمامًا. ينطبق هذا الإطار الجديد فقط على النماذج والأنظمة الحديثة للشركة ، والتي تتطابق قدراتها أو تتجاوز المستويات الفنية الحالية.
تأمل Meta أنه من خلال مشاركة أساليب تطوير نظام الذكاء الاصطناعى المتقدمة ، يمكنها تحسين الشفافية وتعزيز المناقشة الخارجية والبحث في تقييم الذكاء الاصطناعي والعلوم الكمية للمخاطر. في الوقت نفسه ، أكدت الشركة أن عملية صنع القرار لتقييم الذكاء الاصطناعي ستستمر في التطور والتحسن مع تطوير التكنولوجيا ، بما في ذلك ضمان أن نتائج بيئة الاختبار يمكن أن تعكس حقًا أداء النموذج في التشغيل الفعلي.
النقاط الرئيسية:
تطلق Meta إطارًا جديدًا لسياسة المخاطر لتقييم وتقليل المخاطر من نماذج الذكاء الاصطناعى المتطورة.
سيتم إيقاف نماذج المخاطر الرئيسية وسيتم تقييد وصول الخبراء ؛
ستشمل عملية تقييم المخاطر خبراء متعدد التخصصات ، يسعى جاهدين لتحسين الشفافية والعلم.
يحدد الإطار الجديد لـ Meta معايير أمان أعلى لتطوير ونشر نماذج الذكاء الاصطناعى المستقبلي ، مما يعكس التزامها بتطوير الذكاء الاصطناعي المسؤول. هذا لا يساعد فقط على تقليل المخاطر المحتملة لتكنولوجيا الذكاء الاصطناعي ، ولكنه يوفر أيضًا خبرة ومرجعية قيمة لهذه الصناعة.