Une étude choquante publiée par l'Observatoire Internet de Stanford révèle une cache massive d'images d'abus sexuels sur des enfants dans la base de données derrière un générateur d'images d'IA populaire. La découverte a suscité une inquiétude généralisée et a mis en évidence les risques éthiques potentiels de la technologie de l’intelligence artificielle. L’étude souligne que certains grands opérateurs de bases de données d’images ont déjà pris des mesures pour restreindre l’accès, mais qu’une action plus proactive est encore nécessaire pour résoudre ce grave problème afin de protéger les enfants et de prévenir une utilisation abusive de la technologie de l’IA.
La base de données sous-jacente d'un générateur d'images d'intelligence artificielle populaire contient des milliers d'images d'abus sexuels sur des enfants, selon une nouvelle étude de l'Observatoire Internet de Stanford. Les opérateurs de certaines des bases de données d’images les plus importantes et les plus couramment utilisées y ont un accès fermé. Cela pourrait avoir un impact sur la capacité des outils d’IA à générer des résultats nuisibles et exacerber les abus antérieurs contre les victimes réelles. L'Observatoire Internet de Stanford appelle à des mesures plus radicales pour résoudre le problème.
Les résultats sont inquiétants et soulignent l’importance de garantir la sécurité des données et l’éthique dans le développement de l’intelligence artificielle. À l'avenir, il sera nécessaire de renforcer la surveillance des données de formation de l'IA et de développer des moyens techniques plus efficaces pour identifier et filtrer les contenus préjudiciables afin de garantir le développement sain et l'application sûre de la technologie de l'intelligence artificielle et d'éviter qu'elle ne soit utilisée à des fins illégales et nuisibles.