Downcodes-Redakteur berichtet: Eine aktuelle Studie enthüllt das überraschende Geheimnis KI-generierter Avatar-Konten auf der X-Plattform. Ein deutsches Forschungsteam analysierte fast 15 Millionen X-Konten und stellte fest, dass nur eine sehr kleine Anzahl von Konten (0,052 %) KI-generierte Avatare nutzten. Diese Konten weisen einzigartige Merkmale auf, wie z. B. eine geringe Anzahl von Followern und Followern. Die meisten Konten wurden im Jahr 2023 erstellt und sogar stapelweise erstellt, was darauf hindeutet, dass es sich höchstwahrscheinlich um gefälschte Konten handelt, die zur Verbreitung spezifischer Informationen verwendet werden.
Hinweis zur Bildquelle: Das Bild wird von AI und dem Bildautorisierungsdienstleister Midjourney generiert
Diese Konten weisen offensichtliche Merkmale auf: Sie haben weniger Follower und folgen weniger Konten, und mehr als die Hälfte wurde im Jahr 2023 erstellt, und einige Konten wurden sogar stapelweise innerhalb weniger Stunden erstellt. Jonas Ricker, der Hauptautor der Studie, wies darauf hin, dass dies deutlich zeige, dass es sich bei diesen Konten nicht um echte Nutzer handele. Nach neunmonatiger Beobachtung hat Platform X mehr als die Hälfte dieser Konten geschlossen.
Bei einer manuellen Inhaltsanalyse von 1.000 Konten, die KI-Avatare verwendeten, stellten die Forscher fest, dass sich die Inhaltsthemen dieser Konten hauptsächlich auf Politik konzentrierten, insbesondere auf Themen im Zusammenhang mit Trump, COVID-19-Impfstoffen und dem Krieg in der Ukraine. Darüber hinaus kommen häufig Lotterie- und Finanzthemen wie Kryptowährungen zur Sprache. Forscher spekulieren, dass diese Konten möglicherweise speziell zur Verbreitung von Desinformation und politischer Propaganda erstellt wurden, da die Konten in großer Zahl erstellt wurden und dieselben Metadaten teilten, was darauf hindeutet, dass sie Teil eines organisierten Netzwerks sein könnten.
Obwohl in dieser Studie die Verbreitung dieser Konten mithilfe von KI-Avataren nicht untersucht wurde, zeigt ihre durchschnittliche Anzahl an Followern und Konten, dass ihr Einfluss begrenzt ist. Dies steht im Einklang mit einer Studie von OpenAI, die ergab, dass Social-Media-Konten, die KI-generierte politische Propaganda verbreiten, nur wenige Reaktionen erhielten, was diese Konten weniger effektiv machte. Das Forschungsteam plant, die Automatisierung der KI-Erkennung gefälschter Avatare in zukünftigen Analysen zu erweitern und aktualisierte Modelle zu integrieren, um die Auswirkungen dieser Technologie auf Social-Media-Plattformen besser zu verstehen.
Diese Forschung liefert wertvolle Einblicke in unser Verständnis der Anwendung von KI-generierten Avataren auf Social-Media-Plattformen und erinnert uns auch daran, beim Einsatz von KI-Technologie zur Verbreitung bösartiger Informationen vorsichtig zu sein. In Zukunft wird eine effektivere KI-Erkennungstechnologie ein wichtiges Mittel zur Aufrechterhaltung der Sicherheit der Netzwerkumgebung sein. Der Herausgeber von Downcodes wird weiterhin auf relevante Entwicklungen achten und Ihnen weitere technologische Informationen liefern.