Si l’intelligence artificielle (IA) repousse les limites de la créativité et améliore l’efficacité de la communication, elle suscite également des inquiétudes cachées telles que la prolifération de fausses informations et la violation de la propriété intellectuelle, posant ainsi de nouveaux défis à la construction d’un écosystème de communication international. Certains médias et organisations internationales ont commencé à explorer comment appliquer les nouvelles technologies de l'IA pour lutter contre la désinformation de l'IA, « utiliser la technologie pour combattre la technologie et utiliser la magie pour vaincre la magie ».
"L'émergence de fausses informations dans les guerres n'est pas nouvelle, mais elles ont acquis une puissance sans précédent à l'ère numérique." Lors de la cérémonie d'ouverture du 6e Sommet mondial des médias qui s'est tenu le 14 à Urumqi, au Xinjiang, il a parlé de l'impact des fausses informations. informations sur le monde réel. Ba Yuhua, chef du département de communication de la délégation régionale du Comité international de la Croix-Rouge pour l'Asie de l'Est, s'est dit préoccupé par les dégâts causés.
L'application de l'IA générative et de la technologie des grands modèles a amené le monde dans une ère d'information numérique où « ce que vous voyez n'est pas nécessairement cru, et ce que vous entendez n'est pas nécessairement vrai ». L’émergence de contenus « deep fake » multimodaux d’IA, tels que des sons, des vidéos et des images, a créé un brouillard croissant de fausses informations.
"Les technologies d'IA générative augmenteront le risque de désinformation et de désinformation sophistiquées. Dans un monde avec autant de contenu, le besoin de sources d'information fiables, de vérifications rigoureuses des faits et de transparence ne fera que croître." » a déclaré lors du sommet des médias.
L’Institut américain d’évaluation et de recherche sur la crédibilité des informations suit et évalue la capacité de l’IA générative à créer de fausses informations. Un rapport publié par l'agence à la fin de l'année dernière a montré que le nombre de sites Web de fausses informations créés à l'aide d'agents d'IA est passé de 49 à plus de 600 en sept mois.
Bien que l’application de l’IA ait entraîné des changements dans l’ensemble de l’écologie médiatique, rendant l’environnement de diffusion de l’information de plus en plus diversifié et complexe, ce qui reste inchangé est la mission et la responsabilité des médias d’adhérer aux faits et à la vérité.
"La technologie nous a ouvert de nouvelles opportunités, mais elle a également apporté de nouveaux défis. L'intelligence artificielle améliorera non seulement l'efficacité de la diffusion de l'information, mais nous obligera également à repenser nos normes éthiques. Kovacs Tao, PDG du groupe hongrois ATV Media." "Je crois fermement que la vérité et les faits restent au cœur de nos médias et de notre responsabilité à l'ère numérique", a déclaré Marsh.
Face aux nouvelles caractéristiques de la production et de la diffusion de fausses informations à l'ère numérique, comment renforcer les réglementations et les orientations pour réduire la génération de fausses informations à la source ; comment faire bon usage des nouveaux moyens technologiques pour garantir la traçabilité et la crédibilité du contenu ; sont devenues des préoccupations courantes des médias dans de nombreux pays.
Lors du sixième Sommet mondial des médias, le groupe de réflexion national haut de gamme de l'agence de presse Xinhua a publié au monde le rapport du groupe de réflexion « Responsabilité et mission des médias d'information à l'ère de l'intelligence artificielle ». L'enquête du rapport auprès des médias d'information dans 53 pays et régions du monde montre que 85,6 % des personnes interrogées soutiennent le renforcement des réglementations et de la gouvernance sous une forme ou une autre en réponse aux éventuels effets négatifs de l'application de l'IA générative dans l'industrie des médias.
Lors du sommet, les invités chinois et étrangers ont eu des discussions animées sur la manière de lutter contre la propagation de fausses informations provoquées par les abus de l’IA. "Ce sommet a créé une opportunité pour les médias mondiaux de renforcer la crédibilité de l'information face à la désinformation, à la désinformation et aux discours de haine", a déclaré Chang Qide, coordonnateur résident du système des Nations Unies pour le développement en Chine, dans un discours vidéo prononcé lors du sommet.
Les agences des Nations Unies et les médias multinationaux ont commencé à accélérer la construction d'une ligne de défense « d'authenticité ». Chang Qide a déclaré que les Nations Unies ont publié cette année les « Principes mondiaux d'intégrité de l'information », exhortant les gouvernements, les entreprises technologiques, les annonceurs, les sociétés de relations publiques et les médias à coopérer pour construire conjointement un écosystème d'information plus éthique.
À l’échelle mondiale, des institutions telles que l’agence de presse Xinhua, Reuters, la British Broadcasting Corporation et la National Public Radio ont formulé des codes de conduite et des lignes directrices en matière d’IA pour prévenir les risques susceptibles de porter atteinte à l’authenticité de l’application de l’IA dans l’industrie des médias.
"Pour chaque menace créée avec l'aide de l'IA, la technologie elle-même peut fournir un 'antidote' efficace." Pavel Negoitsa, président de Rossiya Gazeta, a déclaré que l'IA peut détecter les "contrefaçons profondes" et arrêter les actions des fraudeurs, etc.
Face à la situation où le public « croit » facilement au contenu généré par l’intelligence artificielle, de nombreux partis ont appelé à ajouter des étiquettes au contenu généré par l’intelligence artificielle pour aider le public à faire la distinction entre l’authenticité et le mensonge. En septembre de cette année, l'Administration chinoise du cyberespace a publiquement sollicité des avis sur les « Mesures d'étiquetage du contenu synthétique généré par l'intelligence artificielle (projet pour commentaires) », déclarant que les fournisseurs de services d'information sur les réseaux devraient étiqueter conformément aux exigences des normes nationales obligatoires pertinentes. . En 2023, l'AFP et les principaux médias européens ont publié une déclaration sur la réglementation de l'information sur l'IA et les initiatives de l'industrie, exigeant que les modèles d'IA générative et les utilisateurs identifient clairement, spécifiquement et systématiquement le contenu généré par l'intelligence artificielle contenu dans leur contenu de sortie.
Certains médias ont commencé à coopérer avec des entreprises technologiques pour construire des « pare-feu d'authenticité ». La British Broadcasting Corporation et des sociétés américaines telles qu'Adobe, Google, Intel et Microsoft ont créé conjointement la Content Source and Authenticity Alliance. L'alliance vise à fournir des étiquettes d'authenticité de contenu et des systèmes de services d'informations de traçabilité historique pour les médias numériques.
À l'avenir, l'application de l'IA augmentera sans aucun doute encore la complexité de l'environnement de l'information. Les médias devraient adhérer au principe selon lequel « l'authenticité est la vie de l'information » afin de dissiper le brouillard des fausses informations pour le public et de créer une image claire. environnement de l’opinion publique.