Laut Economic Daily hat eine Reihe von KI-synchronisierten Videos im Internet für Aufsehen gesorgt. Sie sind nicht nur überraschend realistisch, sondern auch die Klangeigenschaften sind fast die gleichen wie bei echten Menschen 100 Millionen Mal in kurzer Zeit. Der Inhalt dieser Videos hat jedoch nichts mit den Personen des öffentlichen Lebens auf den Bildern zu tun und wurde von der Plattform entfernt.
Die Entwicklung der KI-Technologie hat die Schwelle für tiefgreifende Fälschungen und kostengünstige Massenproduktion gesenkt, und KI-generierte Bilder sowie Videos mit Stimm- und Gesichtsveränderung sind in großer Zahl aufgetaucht. Auch wenn diese Videos ein echter Hingucker sind, dürfen die Risiken, die sich dahinter verbergen, nicht ignoriert werden.
Gegenwärtig ist die Erstellung und Verbreitung falscher Informationen zu einem globalen Problem geworden, und der Einsatz künstlicher Intelligenz-Synthesetechnologie, um diese als echt erscheinen zu lassen, bringt den Normalbürger in Schwierigkeiten, Informationen zu identifizieren. Der „2024 Artificial Intelligence Security Report“ zeigt, dass KI-basierter Deep-Forgery-Betrug im Jahr 2023 um das 30-fache ansteigen wird und eine ernsthafte Bedrohung für die Netzwerksicherheit und die soziale Sicherheit darstellt. Die Verbreitung falscher Informationen stört nicht nur die normale Ordnung im Cyberspace, sondern kann auch negative Emotionen aus der virtuellen Welt in die Realität übertragen und so soziale Ängste verstärken.
Der Umgang mit Chaos wie Deep Forgery erfordert die Zusammenarbeit mehrerer Parteien und eine gemeinsame Governance. Derzeit hat unser Land Gesetze und Vorschriften wie die „Verordnungen zum detaillierten Synthesemanagement von Internetinformationsdiensten“ erlassen, um das Content-Management von der Quelle aus zu stärken. Gleichzeitig markiert die Veröffentlichung der „Maßnahmen zur Kennzeichnung synthetischer Inhalte, die durch künstliche Intelligenz generiert werden (Entwurf zur Kommentierung)“ auch ein Zeichen dafür, dass die nationale Ebene die Überwachung der KI-Technologie verstärkt. Nur wenn es der KI ermöglicht wird, sich innerhalb eines rechtlichen und konformen Rahmens gesund zu entwickeln, können die Menschen wirklich von den Vorteilen profitieren, die der technologische Wandel mit sich bringt, und die gesunde Entwicklung der Branche der künstlichen Intelligenz fördern.
Als wichtiger Teil der Informationsverbreitung sollten auch Plattformbetreiber und Diensteanbieter entsprechende Verantwortung übernehmen, rote Grenzen für KI-generierte Inhalte ziehen, die Verbreitung illegaler, rechtsverletzender und betrügerischer Inhalte strikt verbieten und auffällige Warnschilder anbringen, um die Verbreitung falscher Informationen zu verhindern . Darüber hinaus kann der Einsatz digitaler Wasserzeichen, Zeitstempel, Hash-Funktionen und anderer technischer Mittel nicht nur die Überprüfbarkeit der Authentizität von Informationen verbessern, sondern auch ein wirksames Mittel sein, um die Verbreitung falscher Informationen zu verhindern. Als Konsumenten von Inhalten sollte das Publikum auch wachsam bleiben, seine Fähigkeit verbessern, KI-generierte Inhalte zu erkennen, und voreingenommene Überzeugungen vermeiden.