Meta ha publicado un nuevo marco de política de riesgo de IA de vanguardia, con el objetivo de reducir el riesgo de modelos de IA de vanguardia y tomar las medidas de control correspondientes en función del nivel de riesgo. El marco divide los modelos de IA en dos categorías: alto riesgo y riesgo clave, y formula las estrategias correspondientes para diferentes niveles, como detener el desarrollo, restringir los derechos de acceso, etc. Este movimiento tiene como objetivo mejorar la seguridad y la transparencia del desarrollo de la IA y prevenir posibles amenazas, como la proliferación de armas biológicas y fraude económico.
Recientemente publicó un nuevo marco de política de riesgos destinado a evaluar y reducir los riesgos planteados por modelos de IA de vanguardia y dejar de desarrollar o limitar la liberación de estos sistemas si es necesario. El marco, llamado Frontier AI Framework, explica cómo Meta dividirá los modelos de IA en dos categorías: riesgos de alto riesgo y críticos, y toma las medidas correspondientes en consecuencia para reducir los riesgos a "niveles tolerables".
En este marco, los riesgos críticos se definen como capaces de facilitar de manera única la ejecución de escenarios de amenazas específicos. El alto riesgo significa que el modelo puede aumentar significativamente la posibilidad de lograr escenarios de amenazas, pero no facilita directamente la ejecución. Los escenarios de amenazas incluyen la proliferación de armas biológicas, cuyas capacidades son comparables a los agentes biológicos conocidos, y el daño económico generalizado a un individuo o empresa causado por fraude y fraude a largo plazo a gran escala.
Para los modelos que cumplan con los umbrales de riesgo críticos, Meta dejará de desarrollar el desarrollo y el acceso abierto al modelo a solo unos pocos expertos, al tiempo que implementan protecciones de seguridad para evitar violaciones de datos o infracciones de datos donde sean técnica y comercialmente factible. Para los modelos de alto riesgo, Meta restringe el acceso y toma medidas de mitigación de riesgos para reducir los riesgos a niveles moderados, asegurando que el modelo no mejore significativamente las capacidades de ejecución de los escenarios de amenazas.
Meta dijo que su proceso de evaluación de riesgos involucrará a expertos multidisciplinarios y líderes internos de la compañía para garantizar que las opiniones sobre todos los aspectos se consideren completamente consideradas. Este nuevo marco se aplica solo a los modelos y sistemas de vanguardia de la compañía, cuyas capacidades coinciden o exceden los niveles técnicos actuales.
Meta espera que al compartir sus métodos avanzados de desarrollo del sistema de IA, pueda mejorar la transparencia y promover la discusión e investigación externos sobre la evaluación de la IA y la ciencia cuantitativa del riesgo. Al mismo tiempo, la compañía enfatizó que el proceso de toma de decisiones para la evaluación de IA continuará evolucionando y mejorando con el desarrollo de la tecnología, incluida la garantía de que los resultados de su entorno de prueba realmente puedan reflejar el rendimiento del modelo en la operación real.
Puntos clave:
Meta lanza un nuevo marco de política de riesgos para evaluar y reducir los riesgos de los modelos de IA de vanguardia.
Se suspenderán los modelos de riesgo clave y el acceso experto estará restringido;
El proceso de evaluación de riesgos involucrará a expertos multidisciplinarios, esforzándose por mejorar la transparencia y la científica.
El nuevo marco de Meta establece estándares de seguridad más altos para el desarrollo y la implementación de futuros modelos de IA, lo que refleja su compromiso con el desarrollo responsable de la IA. Esto no solo ayuda a reducir los riesgos potenciales de la tecnología de IA, sino que también proporciona una valiosa experiencia y referencia para la industria.