Um relatório recente revelou sérios problemas escondidos em geradores de imagens de IA: milhares de fotos obscenas de crianças foram usadas para treinar modelos, permitindo que o sistema de IA gerasse imagens falsas e realistas de pornografia infantil e até mesmo convertesse fotos de adolescentes reais em imagens de nudez. Isto desencadeou preocupações generalizadas sobre os riscos potenciais da tecnologia de geração de imagens de IA e também destacou a urgência de questões éticas e de segurança técnica. O relatório apela veementemente às empresas relevantes para que tomem medidas proativas para resolver vulnerabilidades técnicas e evitar que tais incidentes voltem a acontecer.
Milhares de fotos obscenas de crianças foram escondidas na fundação de um gerador de imagens de IA, de acordo com um novo relatório, que insta as empresas a tomarem medidas para resolver falhas na tecnologia. Essas imagens tornam mais fácil para os sistemas de IA gerar imagens falsas realistas de crianças e transformar fotos de adolescentes reais e totalmente vestidos nas redes sociais em fotos nuas. Não existe uma solução fácil para este problema e exigirá que as empresas tomem medidas para resolver as vulnerabilidades da tecnologia. Segundo o relatório, isto levantou preocupações sobre riscos potenciais nos geradores de imagens de IA.
A tecnologia de geração de imagens por IA está se desenvolvendo rapidamente, mas também acarreta enormes riscos. A divulgação deste relatório lembra-nos que devemos prestar atenção às questões de ética e segurança ao desenvolver tecnologia, explorar ativamente a supervisão e soluções eficazes e construir em conjunto um ambiente de aplicação de IA seguro e confiável. Só desta forma poderemos garantir que a tecnologia de IA beneficie a humanidade em vez de causar danos.