Rapports de l'éditeur de downcodes : Une dernière étude révèle le secret surprenant des comptes d'avatar générés par l'IA sur la plateforme X. Une équipe de recherche allemande a analysé près de 15 millions de comptes X et a découvert que seul un très petit nombre de comptes (0,052 %) utilisaient des avatars générés par l’IA. Ces comptes présentent des caractéristiques uniques, telles qu'un petit nombre de followers et de followers, la plupart des comptes ont été créés en 2023 et ont même été créés par lots, ce qui indique qu'il s'agit très probablement de faux comptes utilisés pour diffuser des informations spécifiques.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
Ces comptes présentent des caractéristiques évidentes : ils ont moins de followers et suivent moins de comptes, et plus de la moitié ont été créés en 2023, et certains comptes ont même été créés par lots en quelques heures. Jonas Ricker, l'auteur principal de l'étude, a souligné que cela montre clairement que ces comptes ne sont pas de vrais utilisateurs. Après neuf mois d'observation, Platform X a clôturé plus de la moitié de ces comptes.
Dans une analyse manuelle du contenu de 1 000 comptes utilisant des avatars IA, les chercheurs ont constaté que les thèmes de contenu de ces comptes étaient principalement axés sur la politique, en particulier sur les questions liées à Trump, aux vaccins contre le COVID-19 et à la guerre en Ukraine. De plus, les sujets liés à la loterie et à la finance tels que les crypto-monnaies reviennent fréquemment. Les chercheurs pensent que ces comptes pourraient avoir été créés spécifiquement pour diffuser de la désinformation et de la propagande politique, car les comptes ont été créés en grand nombre et partageaient les mêmes métadonnées, ce qui suggère qu'ils pourraient faire partie d'un réseau organisé.
Bien que cette étude n’ait pas exploré la diffusion de ces comptes utilisant des avatars IA, leur nombre moyen de followers et de comptes montre que leur influence est limitée. Cela concorde avec une étude d’OpenAI, qui a révélé que les comptes de réseaux sociaux diffusant de la propagande politique générée par l’IA recevaient peu de réponses, ce qui rendait ces comptes moins efficaces. L’équipe de recherche prévoit d’étendre l’automatisation de la reconnaissance des faux avatars par l’IA dans les analyses futures et d’incorporer des modèles mis à jour pour mieux comprendre l’impact de cette technologie sur les plateformes de médias sociaux.
Cette recherche fournit des informations précieuses sur notre compréhension de l’application des avatars générés par l’IA sur les plateformes de médias sociaux et nous rappelle également de nous méfier de l’utilisation de la technologie de l’IA pour diffuser des informations malveillantes. À l’avenir, une technologie de reconnaissance d’IA plus efficace deviendra un moyen important de maintenir la sécurité de l’environnement réseau. L'éditeur de Downcodes continuera à être attentif aux évolutions pertinentes et à vous apporter davantage d'informations technologiques.