In jüngster Zeit hat eine neue Forschung auf der X -Plattform (ehemals Twitter) Aufmerksamkeit erregt. Forscher aus Bochum, GESIBNIZ Institute und Cispa Helmholtz Center analysierten fast 15 Millionen x Konten, um die Merkmale und potenziellen Auswirkungen von AI-generierten Avatar-Konten zu untersuchen. Die Forschungsergebnisse zeigen, dass der Anteil der Konten, die AI verwenden, um Avatare zu erzeugen, extrem niedrig ist und diese Konten einzigartige Verhaltensmuster zeigen, was Bedenken hinsichtlich der Verbreitung falscher Informationen hervorruft.
Eine kürzlich durchgeführte Studie von Bochum, GESIBNIZ Institute und Cispa Helmholtz Center ergab kürzlich, dass X (ehemals Twitter) Konten, die AI verwenden, um Avatare zu generieren, nur 0,052% aller Konten berücksichtigen. Die Forscher analysierten fast 15 Millionen x Konten und stellten fest, dass 7723 von ihnen AI-generierte Avatare verwendeten.
Bildquelle Notizen: Das Bild wird von KI erzeugt, und der im Bild autorisierte Dienstanbieter Midjourney
Diese Konten zeigen offensichtliche Merkmale: weniger Follower, nicht viele Konten folgten, und mehr als die Hälfte wurden im Jahr 2023 erstellt, und einige Konten wurden sogar innerhalb weniger Stunden in Chargen erstellt. Dies zeigt deutlich, dass diese Konten keine echten Benutzer sind, wie der Hauptautor der Studie, Jonas Ricker, festgestellt wurde. Nach neun Monaten Beobachtung hat die X -Plattform mehr als die Hälfte dieser Konten geschlossen.
Während der manuellen Inhaltsanalyse von 1.000 Konten unter Verwendung von AI-Avataren stellten die Forscher fest, dass sich die Inhaltsthemen dieser Konten hauptsächlich auf politische Aspekte konzentrierten, insbesondere auf Probleme im Zusammenhang mit Trump, dem Covid-19-Impfstoff und dem ukrainischen Krieg. Darüber hinaus treten häufig Lotterie- und Finanzthemen wie Kryptowährungen auf. Die Forscher spekulierten, dass diese Konten möglicherweise speziell zur Verbreitung falscher Informationen und politischer Propaganda erstellt wurden, da große Mengen an Konten erstellt wurden und dieselben Metadaten darauf hindeuten, dass sie möglicherweise zu einem organisierten Netzwerk angehören.
Obwohl diese Studie die Verbreitung dieser Konten mit AI -Avataren nicht untersuchte, weisen ihre durchschnittlichen weniger Anhänger und weniger Anhänger einen begrenzten Einfluss an. Dies steht im Einklang mit einer Studie von OpenAI, in der festgestellt wurde, dass Social -Media -Konten, die KI zur Generierung politischer Propaganda -Informationen verbreiten, nur wenige Antworten erhielten, und daher sind diese Konten weniger effektiv. Das Forschungsteam plant, die Automatisierung der KI gefälschten Avatar -Anerkennung in zukünftigen Analysen zu erweitern und aktualisierte Modelle einzubeziehen, um die Auswirkungen dieser Technologie auf Social -Media -Plattformen besser zu verstehen.
Schlüsselpunkte:
Untersuchungen zeigen, dass nur 0,052% der Konten auf der X -Plattform AI verwenden, um Avatare zu generieren, und die meisten von ihnen sind neu erstellte Konten.
Berücksichtigung von Inhaltsthemen mit AI-Avataren umfassen hauptsächlich politische, Covid-19- und Finanzthemen.
Die Erstellung dieser Konten und ähnliche Metadaten implizieren, dass sich falsche Informationen im Netzwerk der Organisation ausbreiten können.
Diese Studie bietet eine wichtige Referenz für die Identifizierung und Reaktion falscher Informationen in sozialen Medien und schlägt auch vor, dass wir weiterhin auf die potenziellen Risiken der KI -Technologie bei der Verbreitung von Informationen achten und effektivere Bewältigungsstrategien untersuchen müssen. Zukünftige Forschungen werden den Kommunikationsmechanismus und die Auswirkungen von AI-generierten Avataren in sozialen Medien weiter untersuchen, um die gesunde Entwicklung des Cyberspace besser aufrechtzuerhalten.