Während künstliche Intelligenz (KI) die Grenzen der Kreativität erweitert und die Kommunikationseffizienz verbessert, bringt sie auch verborgene Sorgen wie die Verbreitung falscher Informationen und die Verletzung geistigen Eigentums mit sich und stellt den Aufbau eines internationalen Kommunikationsökosystems vor neue Herausforderungen. Einige Medien und internationale Organisationen haben damit begonnen, zu untersuchen, wie neue KI-Technologien eingesetzt werden können, um mit KI-Desinformation umzugehen, „Technologie zu nutzen, um Technologie zu bekämpfen, und Magie einzusetzen, um Magie zu besiegen.“
„Das Aufkommen falscher Informationen in Kriegen ist nichts Neues, aber sie haben im digitalen Zeitalter eine beispiellose Macht erlangt.“ Bei der Eröffnungszeremonie des 6. Weltmediengipfels, der am 14. in Urumqi, Xinjiang, stattfand, sprach er über die Auswirkungen falscher Informationen Informationen zur realen Welt Ba Yuhua, Leiter der Kommunikationsabteilung der Regionaldelegation des Internationalen Komitees vom Roten Kreuz für Ostasien, äußerte sich besorgt über den verursachten Schaden.
Die Anwendung generativer KI und Großmodelltechnologie hat die Welt in ein Zeitalter digitaler Informationen geführt, in dem „das, was man sieht, möglicherweise nicht unbedingt geglaubt wird und das, was man hört, möglicherweise nicht unbedingt wahr ist“. Das Aufkommen multimodaler KI-„Deep Fake“-Inhalte wie Töne, Videos und Bilder hat zu einem zunehmenden Nebel falscher Informationen geführt.
„Generative KI-Technologien werden das Risiko raffinierter Fehlinformationen und Desinformationen erhöhen. In einer Welt mit so vielen Inhalten wird der Bedarf an vertrauenswürdigen Nachrichtenquellen, fundierter Faktenprüfung und Transparenz nur noch zunehmen.“ sagte während des Mediengipfels.
Das U.S. News Credibility Assessment and Research Institute hat die Fähigkeit generativer KI, falsche Informationen zu erzeugen, verfolgt und bewertet. Ein Ende letzten Jahres von der Agentur veröffentlichter Bericht zeigte, dass die Zahl der mithilfe von KI-Agenten erstellten Fake-News-Websites innerhalb von sieben Monaten von 49 auf über 600 gestiegen ist.
Obwohl der Einsatz von KI zu Veränderungen in der gesamten Medienökologie geführt hat und das Umfeld der Informationsverbreitung immer vielfältiger und komplexer gemacht hat, bleibt die Mission und Verantwortung der Medien, sich an Fakten und Wahrheit zu halten, unverändert.
„Die Technologie hat uns neue Möglichkeiten eröffnet, aber auch neue Herausforderungen mit sich gebracht. Künstliche Intelligenz wird nicht nur die Effizienz der Nachrichtenverbreitung verbessern, sondern erfordert auch, dass wir unsere ethischen Standards überdenken.“ „Ich bin fest davon überzeugt, dass Wahrheit und Fakten weiterhin im Mittelpunkt unserer Medien und unserer Verantwortung im digitalen Zeitalter stehen“, sagte Marsh.
Angesichts der neuen Merkmale der Produktion und Verbreitung falscher Informationen im digitalen Zeitalter: Wie können Vorschriften und Leitlinien gestärkt werden, um die Generierung falscher Informationen aus der Quelle zu reduzieren? Wie können neue technologische Mittel sinnvoll genutzt werden, um die Rückverfolgbarkeit und Glaubwürdigkeit von Inhalten sicherzustellen? werden in vielen Ländern zu häufigen Anliegen der Medien.
Auf dem sechsten Weltmediengipfel veröffentlichte der nationale High-End-Think-Tank der Nachrichtenagentur Xinhua der Welt den Think-Tank-Bericht „Verantwortung und Mission der Nachrichtenmedien im Zeitalter der künstlichen Intelligenz“. Die Umfrage des Berichts unter Nachrichtenmedienorganisationen in 53 Ländern und Regionen auf der ganzen Welt zeigt, dass 85,6 % der Befragten in irgendeiner Form eine Stärkung von Vorschriften und Governance als Reaktion auf die möglichen negativen Auswirkungen des Einsatzes generativer KI in der Medienbranche befürworten.
Auf dem Gipfel diskutierten chinesische und ausländische Gäste heftig über den Umgang mit der Verbreitung falscher Informationen durch KI-Missbrauch. „Dieser Gipfel bietet den globalen Medien die Möglichkeit, die Glaubwürdigkeit von Informationen im Umgang mit Desinformation, Fehlinformationen und Hassreden zu erhöhen“, sagte Chang Qide, der in China ansässige Koordinator des Entwicklungssystems der Vereinten Nationen, in einer Videoansprache während des Gipfels.
Organisationen der Vereinten Nationen und multinationale Medien haben damit begonnen, den Aufbau einer „Authentizitäts“-Verteidigungslinie zu beschleunigen. Chang Qide sagte, dass die Vereinten Nationen in diesem Jahr die „Grundsätze der globalen Informationsintegrität“ veröffentlicht hätten und Regierungen, Technologieunternehmen, Werbetreibende, PR-Unternehmen und Medien dazu auffordern würden, zusammenzuarbeiten, um gemeinsam ein ethischeres Informationsökosystem aufzubauen.
Weltweit haben Institutionen wie die Nachrichtenagentur Xinhua, Reuters, die British Broadcasting Corporation und das National Public Radio KI-Verhaltenskodizes und Richtlinien formuliert, um Risiken zu verhindern, die die Authentizität bei der Anwendung von KI in der Medienbranche verletzen könnten.
„Für jede Bedrohung, die mit Hilfe von KI entsteht, kann die Technologie selbst ein wirksames ‚Gegenmittel‘ darstellen.“ Pavel Negoitsa, Präsident von Rossiya Gazeta, sagte, dass KI „tiefgreifende Fälschungen“ erkennen und Betrügeraktivitäten usw. stoppen kann.
Angesichts der Situation, dass die Öffentlichkeit den durch künstliche Intelligenz generierten Inhalten leicht „glaubt“, haben viele Parteien gefordert, den durch künstliche Intelligenz generierten Inhalten Etiketten hinzuzufügen, um der Öffentlichkeit die Unterscheidung zwischen Authentizität und Falschheit zu erleichtern. Im September dieses Jahres hat die Cyberspace Administration of China öffentlich Stellungnahmen zu den „Maßnahmen zur Kennzeichnung synthetischer Inhalte, die durch künstliche Intelligenz generiert werden (Entwurf zur Stellungnahme)“ eingeholt und erklärt, dass Anbieter von Netzwerkinformationsdiensten die Kennzeichnung gemäß den Anforderungen relevanter verbindlicher nationaler Standards durchführen sollten . Im Jahr 2023 gaben AFP und große europäische Medienorganisationen eine Erklärung zur KI-Informationsregulierung und zu Brancheninitiativen heraus, in der sie von generativen KI-Modellen und Benutzern verlangen, die in ihren Ausgabeinhalten enthaltenen durch künstliche Intelligenz generierten Inhalte klar, spezifisch und konsistent zu identifizieren.
Einige Medien haben begonnen, mit Technologieunternehmen zusammenzuarbeiten, um „Authentizitäts-Firewalls“ zu bauen. Die British Broadcasting Corporation und amerikanische Unternehmen wie Adobe, Google, Intel und Microsoft haben gemeinsam die Content Source and Authenticity Alliance gegründet. Die Allianz arbeitet an der Bereitstellung von Content-Authentizitätskennzeichnungen und Informationsdienstsystemen zur historischen Rückverfolgbarkeit für digitale Medien.
In Zukunft wird der Einsatz von KI zweifellos die Komplexität des Informationsumfelds weiter erhöhen. Die Medien sollten sich an den Grundsatz halten, dass „Authentizität das Leben von Nachrichten ist“, um den Nebel falscher Informationen für die Öffentlichkeit aufzuklären und ein klares Bild zu schaffen Umfeld der öffentlichen Meinung.