Afin d'améliorer la sécurité et la fiabilité des modèles d'intelligence artificielle, OpenAI a récemment annoncé une série d'initiatives majeures. Ces initiatives visent à renforcer les processus de sécurité interne et à imposer des contrôles plus stricts sur le développement et le déploiement de modèles d'IA à haut risque, minimisant ainsi les risques potentiels et garantissant le développement responsable de la technologie de l'IA.
La société d'intelligence artificielle OpenAI a renforcé ses processus de sécurité internes, créé un groupe consultatif sur la sécurité et donné à son conseil d'administration un droit de veto sur l'intelligence artificielle à haut risque. OpenAI a mis à jour son cadre préparatoire pour clarifier la voie à suivre pour évaluer, atténuer et déterminer les risques inhérents aux modèles. L'entreprise évalue les modèles en fonction des niveaux de risque et prend les mesures d'atténuation correspondantes. Les modèles jugés à haut risque ne pourront pas être déployés ou développés davantage. OpenAI a également créé un groupe consultatif interfonctionnel sur la sécurité pour examiner les rapports d'experts et formuler des recommandations de plus haut niveau. Le conseil d’administration et la direction décideront conjointement de publier ou de suspendre le modèle. Avec cette décision, OpenAI cherche à empêcher que des produits ou des processus à haut risque soient approuvés à l'insu ou sans l'approbation du conseil d'administration.
Grâce à ces nouvelles mesures, OpenAI montre qu’elle prend au sérieux les questions de sécurité de l’intelligence artificielle et donne le bon exemple aux autres sociétés d’intelligence artificielle. Cela signifie que l’industrie de l’intelligence artificielle explore activement des modèles de développement et de déploiement plus sûrs et plus responsables, jetant ainsi une base solide pour le développement sain de la technologie de l’intelligence artificielle.