من أجل تحسين سلامة وموثوقية نماذج الذكاء الاصطناعي، أعلنت OpenAI مؤخرًا عن سلسلة من المبادرات الرئيسية. تم تصميم هذه المبادرات لتعزيز عمليات الأمن الداخلي وفرض ضوابط أكثر صرامة على تطوير ونشر نماذج الذكاء الاصطناعي عالية المخاطر، وبالتالي تقليل المخاطر المحتملة وضمان التطوير المسؤول لتكنولوجيا الذكاء الاصطناعي.
قامت شركة الذكاء الاصطناعي OpenAI بتعزيز عمليات الأمن الداخلي لديها، وأنشأت مجموعة استشارية أمنية ومنحت مجلس إدارتها حق النقض على الذكاء الاصطناعي عالي المخاطر. قامت OpenAI بتحديث إطارها التحضيري لتوضيح مسار تقييم وتخفيف وتحديد المخاطر الكامنة في النماذج. تقوم الشركة بتصنيف النماذج وفقًا لمستويات المخاطر وتتخذ تدابير التخفيف المناسبة. لن يكون من الممكن نشر النماذج التي تم تقييمها على أنها عالية المخاطر أو تطويرها بشكل أكبر. أنشأت OpenAI أيضًا مجموعة استشارية أمنية متعددة الوظائف لمراجعة تقارير الخبراء وتقديم توصيات عالية المستوى. سيقرر مجلس الإدارة والقيادة بشكل مشترك ما إذا كان سيتم إطلاق النموذج أو تأجيله. ومن خلال هذه الخطوة، تسعى OpenAI إلى منع الموافقة على المنتجات أو العمليات عالية المخاطر دون علم أو موافقة مجلس الإدارة.
ومن خلال هذه التدابير الجديدة، تُظهر OpenAI أنها تأخذ قضايا سلامة الذكاء الاصطناعي على محمل الجد وتضرب مثالاً جيدًا لشركات الذكاء الاصطناعي الأخرى. وهذا يدل على أن صناعة الذكاء الاصطناعي تستكشف بنشاط نماذج تطوير ونشر أكثر أمانًا ومسؤولية، مما يضع أساسًا متينًا للتطوير الصحي لتكنولوجيا الذكاء الاصطناعي.