Un impactante estudio publicado por el Observatorio de Internet de Stanford revela un caché masivo de imágenes de abuso sexual infantil en la base de datos detrás de un popular generador de imágenes de IA. El descubrimiento provocó una preocupación generalizada y destacó los posibles riesgos éticos de la tecnología de inteligencia artificial. El estudio señala que algunos operadores de grandes bases de datos de imágenes ya han tomado medidas para restringir el acceso, pero aún se necesitan acciones más proactivas para abordar este grave problema para proteger a los niños y prevenir el uso indebido de la tecnología de IA.
La base de datos subyacente de un popular generador de imágenes de inteligencia artificial contiene miles de imágenes de abuso sexual infantil, según un nuevo estudio del Observatorio de Internet de Stanford. Los operadores de algunas de las bases de datos de imágenes más grandes y utilizadas han cerrado el acceso a ellas. Esto podría afectar la capacidad de las herramientas de inteligencia artificial para generar resultados dañinos y exacerbar el abuso previo de víctimas reales. El Observatorio de Internet de Stanford pide medidas más radicales para abordar el problema.
Los hallazgos son preocupantes y resaltan la importancia de garantizar la seguridad y la ética de los datos en el desarrollo de la inteligencia artificial. En el futuro, es necesario fortalecer la supervisión de los datos de entrenamiento de IA y desarrollar medios técnicos más efectivos para identificar y filtrar contenido dañino para garantizar el desarrollo saludable y la aplicación segura de la tecnología de inteligencia artificial y evitar que se utilice con fines ilegales y dañinos.