Meta a publié un nouveau cadre de politique de risque d'IA de pointe, visant à réduire le risque de modèles d'IA de pointe et à prendre des mesures de contrôle correspondantes en fonction du niveau de risque. Le cadre divise les modèles d'IA en deux catégories: à haut risque et à risque clé, et formule des stratégies correspondantes pour différents niveaux, tels que l'arrêt du développement, la restriction des droits d'accès, etc. Cette décision vise à améliorer la sécurité et la transparence du développement de l'IA et à prévenir les menaces potentielles telles que la prolifération des armes biologiques et la fraude économique.
Meta a récemment publié un nouveau cadre de politique des risques visant à évaluer et à réduire les risques posés par les modèles d'IA de pointe et à arrêter de développer ou de limiter la libération de ces systèmes si nécessaire. Le cadre, appelé Frontier AI Framework, explique comment Meta divisera les modèles AI en deux catégories: les risques à haut risque et critiques, et prend des mesures correspondantes en conséquence pour réduire les risques aux "niveaux tolérables".
Dans ce cadre, les risques critiques sont définis comme étant capables de faciliter de manière unique l'exécution de scénarios de menace spécifiques. Un risque élevé signifie que le modèle peut augmenter considérablement la possibilité de réaliser des scénarios de menace, mais ne facilite pas directement l'exécution. Les scénarios de menace incluent la prolifération des armes biologiques, dont les capacités sont comparables aux agents biologiques connus, et les dommages économiques généralisés à un individu ou à une entreprise causée par une fraude et une fraude à long terme à grande échelle.
Pour les modèles qui répondent aux seuils de risque critiques, Meta cessera le développement et l'accès ouvert au modèle à seulement quelques experts, tout en mettant en œuvre des protections de sécurité pour empêcher les pirates ou les violations de données là où techniquement et commercialement faisant partie. Pour les modèles à haut risque, Meta restreint l'accès et prend des mesures d'atténuation des risques pour réduire les risques à des niveaux modérés, garantissant que le modèle n'améliore pas de manière significative les capacités d'exécution des scénarios de menace.
Meta a déclaré que son processus d'évaluation des risques impliquera des experts multidisciplinaires et des chefs d'entreprise internes pour s'assurer que les opinions sur tous les aspects sont pleinement prises en compte. Ce nouveau cadre s'applique uniquement aux modèles et systèmes de pointe de la société, dont les capacités correspondent ou dépassent les niveaux techniques actuels.
Meta espère qu'en partageant ses méthodes avancées de développement du système d'IA, elle peut améliorer la transparence et promouvoir des discussions extérieures et des recherches sur l'évaluation de l'IA et la science quantitative des risques. Dans le même temps, la société a souligné que le processus décisionnel pour l'évaluation de l'IA continuera d'évoluer et de s'améliorer avec le développement de la technologie, notamment en garantissant que les résultats de son environnement de test peuvent vraiment refléter les performances du modèle en fonctionnement réel.
Points clés:
Meta lance un nouveau cadre de politique des risques pour évaluer et réduire les risques des modèles d'IA de pointe.
Les modèles de risque clés seront interrompus et l'accès expert sera restreint;
Le processus d'évaluation des risques impliquera des experts multidisciplinaires, s'efforçant d'améliorer la transparence et la scientifiques.
Le nouveau cadre de Meta établit des normes de sécurité plus élevées pour le développement et le déploiement des futurs modèles d'IA, reflétant son engagement envers le développement responsable de l'IA. Cela aide non seulement à réduire les risques potentiels de la technologie de l'IA, mais offre également une expérience et une référence précieuses pour l'industrie.