Les ingénieurs internes de Microsoft ont récemment émis un avertissement, soulignant que le générateur d'images IA Designer de la société présente des risques potentiels en matière de sécurité et que l'outil peut générer du contenu nuisible. Cet avertissement a été soumis aux agences de réglementation et aux conseils d'administration, soulevant des inquiétudes quant à la sécurité des modèles d'IA. Il est entendu que l’outil Designer est basé sur le modèle DALL-E d’OpenAI et que ses risques potentiels peuvent provenir de défauts dans le modèle lui-même. L’incident met en évidence l’impact négatif potentiel des grands modèles de langage et l’importance de la sécurité et de l’éthique dans l’application de la technologie de l’IA.
Les ingénieurs de Microsoft ont averti les régulateurs et le conseil d'administration des risques potentiels associés au générateur d'images IA de l'entreprise. Les ingénieurs affirment que l'outil Designer peut générer du contenu nuisible, provenant d'un problème avec le modèle DALL-E d'OpenAI. Il a exhorté à ce que les risques pour la sécurité soient pris en compte et à attirer l'attention.
Cet incident nous rappelle une fois de plus que même si la technologie de l'IA se développe rapidement, nous devons prêter attention à ses risques potentiels et renforcer les mesures de surveillance et de sécurité pour garantir le développement sain de la technologie de l'IA et éviter ses abus. À l’avenir, la manière d’équilibrer l’innovation technologique en matière d’IA et les risques de sécurité deviendra une question importante.