Si bien la inteligencia artificial (IA) amplía los límites de la creatividad y mejora la eficiencia de la comunicación, también trae consigo preocupaciones ocultas como la proliferación de información falsa y la infracción de la propiedad intelectual, lo que plantea nuevos desafíos a la construcción de un ecosistema de comunicación internacional. Algunos medios y organizaciones internacionales han comenzado a explorar cómo aplicar nuevas tecnologías de inteligencia artificial para lidiar con la desinformación de la inteligencia artificial, "usar la tecnología para combatir la tecnología y usar la magia para derrotar a la magia".
"La aparición de información falsa en las guerras no es nada nuevo, pero ha adquirido un poder sin precedentes en la era digital". En la ceremonia de apertura de la VI Cumbre Mundial de Medios celebrada en Urumqi, Xinjiang, el día 14, habló sobre el impacto de la información falsa. información sobre el mundo real Ba Yuhua, jefe del departamento de comunicaciones de la delegación regional del Comité Internacional de la Cruz Roja para Asia Oriental, expresó su preocupación por los daños causados.
La aplicación de la IA generativa y la tecnología de modelos grandes ha llevado al mundo a una era de información digital en la que "lo que ves no necesariamente se cree y lo que escuchas no necesariamente es cierto". La aparición de contenidos "muy falsos" de IA multimodal, como sonidos, vídeos e imágenes, ha creado una niebla cada vez mayor de información falsa.
"Las tecnologías de IA generativa aumentarán el riesgo de información errónea y desinformación sofisticada, en un mundo con tanto contenido, la necesidad de fuentes de noticias confiables, verificación de datos sólida y transparencia no hará más que crecer", dijo Yan Lingsi, vicepresidente de Reuters Asia Pacífico. dijo durante la cumbre de medios.
El Instituto de Investigación y Evaluación de la Credibilidad de las Noticias de EE. UU. ha estado rastreando y evaluando la capacidad de la IA generativa para crear información falsa. Un informe publicado por la agencia a finales del año pasado mostró que el número de sitios web de noticias falsas creados con agentes de inteligencia artificial aumentó de 49 a más de 600 en siete meses.
Aunque la aplicación de la IA ha provocado cambios en toda la ecología de los medios, haciendo que el entorno de difusión de información sea cada vez más diverso y complejo, lo que permanece sin cambios es la misión y responsabilidad de los medios de adherirse a los hechos y la verdad.
"La tecnología nos ha abierto nuevas oportunidades, pero también ha traído nuevos desafíos. La inteligencia artificial no sólo mejorará la eficiencia de la difusión de noticias, sino que también nos obligará a repensar nuestros estándares éticos", Kovacs Tao, director ejecutivo del ATV Media Group de Hungría". "Creo firmemente que la verdad y los hechos siguen siendo el núcleo de nuestros medios y nuestra responsabilidad en la era digital", dijo Marsh.
Frente a las nuevas características de la producción y difusión de información falsa en la era digital, cómo fortalecer las regulaciones y orientaciones para reducir la generación de información falsa desde la fuente; cómo hacer un buen uso de los nuevos medios tecnológicos para garantizar la trazabilidad y credibilidad del contenido; se han convertido en preocupaciones comunes de los medios de comunicación en muchos países.
En la Sexta Cumbre Mundial de Medios, el grupo de expertos nacional de alto nivel de la Agencia de Noticias Xinhua lanzó al mundo el informe del grupo de expertos “Responsabilidad y misión de los medios de comunicación en la era de la inteligencia artificial”. La encuesta del informe realizada a organizaciones de medios de noticias en 53 países y regiones de todo el mundo muestra que el 85,6% de los encuestados apoya el fortalecimiento de las regulaciones y la gobernanza de alguna forma en respuesta a los posibles efectos negativos de la aplicación de la IA generativa en la industria de los medios.
En la cumbre, los invitados chinos y extranjeros mantuvieron acaloradas discusiones sobre cómo lidiar con la difusión de información falsa causada por el abuso de la IA. "Esta cumbre ha creado una oportunidad para que los medios globales mejoren la credibilidad de la información al abordar la desinformación, la desinformación y el discurso de odio", dijo Chang Qide, Coordinador Residente del Sistema de Desarrollo de las Naciones Unidas en China, en un discurso en video durante la cumbre.
Las agencias de las Naciones Unidas y los medios de comunicación multinacionales han comenzado a acelerar la construcción de una línea de defensa de la "autenticidad". Chang Qide dijo que las Naciones Unidas publicaron este año los "Principios globales de integridad de la información", instando a los gobiernos, las empresas de tecnología, los anunciantes, las empresas de relaciones públicas y los medios a cooperar para construir conjuntamente un ecosistema de información más ético.
A nivel mundial, instituciones como la Agencia de Noticias Xinhua, Reuters, la British Broadcasting Corporation y la Radio Pública Nacional han formulado códigos de conducta y directrices de IA para prevenir riesgos que puedan violar la autenticidad en la aplicación de la IA en la industria de los medios.
"Para cada amenaza creada con la ayuda de la IA, la tecnología en sí misma puede proporcionar un 'antídoto' eficaz". Pavel Negoitsa, presidente de Rossiya Gazeta, afirmó que la IA puede detectar "falsificaciones profundas" y detener las acciones de los estafadores, etc.
Ante la situación en la que el público “cree” fácilmente en el contenido generado por la inteligencia artificial, muchos partidos han pedido que se agreguen etiquetas al contenido generado por la inteligencia artificial para ayudar al público a distinguir entre autenticidad y falsedad. En septiembre de este año, la Administración del Ciberespacio de China solicitó públicamente opiniones sobre las "Medidas para etiquetar contenido sintético generado por inteligencia artificial (borrador para comentarios)", afirmando que los proveedores de servicios de información de red deben etiquetar de acuerdo con los requisitos de las normas nacionales obligatorias pertinentes. . En 2023, la AFP y las principales organizaciones de medios europeas emitieron una declaración sobre la regulación de la información de IA y las iniciativas de la industria, exigiendo que los modelos y usuarios de IA generativa identifiquen de manera clara, específica y consistente el contenido generado por inteligencia artificial contenido en su contenido de salida.
Algunos medios han comenzado a cooperar con empresas de tecnología para construir "cortafuegos de autenticidad". La British Broadcasting Corporation y empresas estadounidenses como Adobe, Google, Intel y Microsoft establecieron conjuntamente Content Source and Authenticity Alliance. La alianza trabaja para proporcionar etiquetas de autenticidad de contenido y sistemas de servicios de información de trazabilidad histórica para medios digitales.
En el futuro, la aplicación de la IA sin duda aumentará aún más la complejidad del entorno de la información. Los medios deben adherirse al principio de que "la autenticidad es la vida de las noticias" para despejar la niebla de información falsa para el público y crear una imagen clara. entorno de opinión pública.