Um estudo chocante publicado pelo Stanford Internet Observatory revela um enorme cache de imagens de abuso sexual infantil no banco de dados por trás de um popular gerador de imagens de IA. A descoberta despertou preocupação generalizada e destacou os potenciais riscos éticos da tecnologia de inteligência artificial. O estudo aponta que alguns grandes operadores de bases de dados de imagens já tomaram medidas para restringir o acesso, mas ainda são necessárias ações mais proativas para resolver este grave problema para proteger as crianças e prevenir o uso indevido da tecnologia de IA.
O banco de dados subjacente de um popular gerador de imagens de inteligência artificial contém milhares de imagens de abuso sexual infantil, de acordo com um novo estudo do Stanford Internet Observatory. Os operadores de alguns dos maiores e mais usados bancos de dados de imagens fecharam o acesso a eles. Isto poderia afetar a capacidade das ferramentas de IA de gerar resultados prejudiciais e exacerbar abusos anteriores de vítimas reais. O Stanford Internet Observatory pede medidas mais radicais para resolver o problema.
As conclusões são preocupantes e destacam a importância de garantir a segurança e a ética dos dados no desenvolvimento da inteligência artificial. No futuro, é necessário reforçar a supervisão dos dados de formação em IA e desenvolver meios técnicos mais eficazes para identificar e filtrar conteúdos nocivos, a fim de garantir o desenvolvimento saudável e a aplicação segura da tecnologia de inteligência artificial e evitar que esta seja utilizada para fins ilegais e prejudiciais.