Die Technologie der künstlichen Intelligenz entwickelt sich rasant und eine ihrer Anwendungen, die Deep-Forge-Technologie, hat tiefgreifende Auswirkungen auf unser Leben. Diese Technologie kann äußerst realistische gefälschte Videos und Bilder erzeugen, was viele Annehmlichkeiten mit sich bringt, aber auch ernsthafte Risiken birgt, wie beispielsweise die Verwendung von Bildern von Prominenten zur Begehung von Betrug. In diesem Artikel werden die Herausforderungen und Gegenmaßnahmen erörtert, die die Deep-Forgery-Technologie mit sich bringt, mit dem Ziel, das öffentliche Risikobewusstsein zu schärfen und die soziale Ordnung aufrechtzuerhalten.
In den letzten Jahren ist KI in jeden Aspekt des Lebens vorgedrungen, von Sprachassistenten bis hin zu autonomer Fahrtechnologie. Allerdings birgt die weit verbreitete Anwendung der KI-Technologie auch einige potenzielle Risiken, darunter die Deepfake-Technologie, die gesellschaftliche Aufmerksamkeit erregt hat.
Die Deepfake-Technologie nutzt Algorithmen, um äußerst realistische falsche Inhalte zu generieren, indem sie aus einer großen Menge realer Daten lernt und Videos oder Bilder generiert, die Personen oder Szenen sehr ähnlich sind. Obwohl diese Technologie die Leistungsfähigkeit der KI demonstriert, führt sie auch zu Betrug. Beispielsweise gab es kürzlich Vorfälle, bei denen Menschen vorgaben, das Bild und die Stimme von Dr. Zhang Wenhong zu nutzen, um für Live-Übertragungen zu werben. In dem gefälschten Video bewarb eine synthetische Figur ein bestimmtes Produkt, was zum Verkauf von mehr als 1.200 Artikeln führte. Dieser Vorfall löste große Unzufriedenheit zwischen Dr. Zhang Wenhong und der Öffentlichkeit aus.
Hinweis zur Bildquelle: Das Bild wird von AI und dem Bildautorisierungsdienstleister Midjourney generiert
Tang Jiansheng, stellvertretender Generalsekretär der Shanghai Consumer Rights Protection Commission, sagte, dass ein solches Verhalten, bei dem mithilfe der KI-Technologie Bilder von Prominenten nachgeahmt würden, eine schwerwiegende Verletzung der Verbraucherrechte darstelle. Ähnliche Fälle betreffen Personen, die das Profilbild von Lei Jun verwenden, um während des Nationalfeiertags Parodievideos zu erstellen, und die sich als Andy Laus Stimme ausgeben, um Besucher anzulocken. Relevante Unternehmen und Prominente haben sich zu mehr Wachsamkeit geäußert.
Experten weisen darauf hin, dass die aktuelle KI-Technologie problemlos die Gesichter und Stimmen anderer Personen klonen kann und die generierten Inhalte äußerst realistisch sind. Allerdings ist diese Art von Technologie nicht ohne Mängel. Anomalien können immer noch gefunden werden, indem man die Verschmelzung eines Gesichts mit dem Hintergrund oder die Übereinstimmung einer Stimme mit der Mundform genau beobachtet. Darüber hinaus ist Live-Streaming in Echtzeit mit dieser Technologie derzeit nur schwer zu erreichen.
Juristen haben deutlich gemacht, dass die unbefugte Nutzung des Bildes oder der Stimme einer anderen Person illegal ist. Zhu Wei, außerordentlicher Professor an der China University of Political Science and Law, betonte, dass dieses Verhalten laut Zivilgesetzbuch Persönlichkeitsrechte verletze, es sich bei den betreffenden Inhalten um illegale Informationen handele und der Herausgeber möglicherweise sogar strafrechtlich verfolgt werde .
Wenn Verbraucher Waren kaufen, weil gefälschte KI-Prominente Waren mitbringen, können sie vom Händler gemäß dem „Gesetz zum Schutz der Verbraucherrechte“ verlangen, dass er „einen erstattet und drei entschädigt“. Der Mindestentschädigungsbetrag beträgt 500 Yuan. Gleichzeitig sollten Kurzvideoplattformen auch Regulierungsaufgaben übernehmen, die Überprüfung und Bestrafung relevanter Inhalte verstärken und die flächendeckende Verbreitung illegaler Informationen verhindern.
Der Aufstieg der Deep-Forgery-Technologie erinnert die Öffentlichkeit daran, dass sie zwar die Bequemlichkeit der KI genießen, aber auch auf deren potenzielle Risiken achten muss.
Angesichts der Herausforderung der Deep-Forgery-Technologie müssen Regierung, Unternehmen und Einzelpersonen zusammenarbeiten, um die gesetzliche Aufsicht zu stärken, die technischen Identifizierungsfähigkeiten zu verbessern und gemeinsam eine sichere und zuverlässige Netzwerkumgebung aufzubauen. Nur so kann die KI-Technologie besser genutzt werden, ihr böswilliger Einsatz vermieden und die soziale Ordnung und öffentliche Interessen aufrechterhalten werden.