Informes del editor de Downcodes: un estudio más reciente revela el sorprendente secreto de las cuentas de avatar generadas por IA en la plataforma X. Un equipo de investigación alemán analizó casi 15 millones de cuentas X y descubrió que sólo una cantidad muy pequeña de cuentas (0,052%) utilizaba avatares generados por IA. Estas cuentas muestran características únicas, como una pequeña cantidad de seguidores y seguidores, la mayoría de las cuentas fueron creadas en 2023, e incluso fueron creadas en lotes, lo que indica que lo más probable es que sean cuentas falsas utilizadas para difundir información específica.
Nota sobre la fuente de la imagen: la imagen es generada por IA y el proveedor de servicios de autorización de imágenes Midjourney
Estas cuentas muestran características obvias: tienen menos seguidores y siguen a menos cuentas, y más de la mitad se crearon en 2023, y algunas cuentas incluso se crearon en lotes en unas pocas horas. Jonas Ricker, autor principal del estudio, señaló que esto muestra claramente que estas cuentas no son usuarios reales. Después de nueve meses de observación, la Plataforma X cerró más de la mitad de estas cuentas.
En un análisis de contenido manual de 1.000 cuentas que utilizaban avatares de IA, los investigadores descubrieron que los temas de contenido de estas cuentas se centraban principalmente en la política, especialmente cuestiones relacionadas con Trump, las vacunas COVID-19 y la guerra en Ucrania. Además, los temas financieros y de lotería, como las criptomonedas, surgen con frecuencia. Los investigadores especulan que estas cuentas pueden haber sido creadas específicamente para difundir desinformación y propaganda política, ya que las cuentas se crearon en grandes cantidades y compartían los mismos metadatos, lo que sugiere que pueden ser parte de una red organizada.
Aunque este estudio no exploró la difusión de estas cuentas que utilizan avatares de IA, su número promedio de seguidores y cuentas muestra que su influencia es limitada. Esto es consistente con un estudio de OpenAI, que encontró que las cuentas de redes sociales que difunden propaganda política generada por IA recibieron pocas respuestas, lo que las hace menos efectivas. El equipo de investigación planea ampliar la automatización del reconocimiento de avatares falsos mediante IA en análisis futuros e incorporar modelos actualizados para comprender mejor el impacto de esta tecnología en las plataformas de redes sociales.
Esta investigación proporciona información valiosa sobre nuestra comprensión de la aplicación de avatares generados por IA en plataformas de redes sociales y también nos recuerda que debemos tener cuidado con el uso de la tecnología de IA para difundir información maliciosa. En el futuro, una tecnología de reconocimiento de IA más eficaz se convertirá en un medio importante para mantener la seguridad del entorno de red. El editor de Downcodes seguirá atento a novedades relevantes y ofreciéndote más información tecnológica.