Para mejorar la seguridad y confiabilidad de los modelos de inteligencia artificial, OpenAI anunció recientemente una serie de iniciativas importantes. Estas iniciativas están diseñadas para fortalecer los procesos de seguridad internos e imponer controles más estrictos sobre el desarrollo y despliegue de modelos de IA de alto riesgo, minimizando así los riesgos potenciales y garantizando el desarrollo responsable de la tecnología de IA.
La empresa de inteligencia artificial OpenAI ha fortalecido sus procesos de seguridad internos, ha establecido un grupo asesor de seguridad y ha otorgado a su junta directiva poder de veto sobre la inteligencia artificial de alto riesgo. OpenAI ha actualizado su marco preparatorio para aclarar el camino para evaluar, mitigar y determinar los riesgos inherentes a los modelos. La empresa clasifica los modelos según los niveles de riesgo y toma las medidas de mitigación correspondientes. Los modelos evaluados como de alto riesgo no podrán implementarse ni desarrollarse más. OpenAI también ha establecido un grupo asesor de seguridad multifuncional para revisar informes de expertos y hacer recomendaciones de alto nivel. La junta y el liderazgo decidirán conjuntamente si publicar o archivar el modelo. Con esta medida, OpenAI busca evitar que productos o procesos de alto riesgo sean aprobados sin el conocimiento o aprobación de la junta directiva.
A través de estas nuevas medidas, OpenAI demuestra que se toma en serio las cuestiones de seguridad de la inteligencia artificial y da un buen ejemplo a otras empresas de inteligencia artificial. Esto significa que la industria de la inteligencia artificial está explorando activamente modelos de desarrollo e implementación más seguros y responsables, sentando una base sólida para el desarrollo saludable de la tecnología de inteligencia artificial.