Un rapport récent a révélé de graves problèmes cachés dans les générateurs d'images d'IA : des milliers de photos obscènes d'enfants ont été utilisées pour former des modèles, permettant au système d'IA de générer de fausses images réalistes de pédopornographie et même de convertir des photos de vrais adolescents en images nues. Cela a suscité de nombreuses inquiétudes quant aux risques potentiels de la technologie de génération d’images IA, et a également souligné l’urgence des questions de sécurité technique et d’éthique. Le rapport appelle vivement les entreprises concernées à prendre des mesures proactives pour résoudre les vulnérabilités techniques et empêcher que de tels incidents ne se reproduisent.
Des milliers de photos obscènes d'enfants ont été cachées dans les fondations d'un générateur d'images IA, selon un nouveau rapport qui exhorte les entreprises à prendre des mesures pour remédier aux failles de la technologie. Ces images permettent aux systèmes d’IA de générer plus facilement de fausses images réalistes d’enfants et de transformer des photos d’adolescents réels et entièrement habillés sur les réseaux sociaux en photos nues. Il n’existe pas de solution simple à ce problème et les entreprises devront prendre des mesures pour remédier aux vulnérabilités technologiques. Selon le rapport, cela a soulevé des inquiétudes quant aux risques potentiels liés aux générateurs d’images IA.
La technologie de génération d’images IA se développe rapidement, mais elle comporte également d’énormes risques. La publication de ce rapport nous rappelle que nous devons prêter attention aux questions d'éthique et de sécurité lors du développement de technologies, explorer activement une supervision et des solutions efficaces et construire conjointement un environnement d'application d'IA sûr et fiable. Ce n’est qu’ainsi que nous pourrons garantir que la technologie de l’IA profite à l’humanité au lieu de lui causer du tort.