Embora a inteligência artificial (IA) expanda os limites da criatividade e melhore a eficiência da comunicação, também traz preocupações ocultas, como a proliferação de informações falsas e a violação da propriedade intelectual, colocando novos desafios à construção de um ecossistema de comunicação internacional. Alguns meios de comunicação e organizações internacionais começaram a explorar como aplicar novas tecnologias de IA para lidar com a desinformação da IA, "usar a tecnologia para combater a tecnologia e usar a magia para derrotar a magia".
"O surgimento de informações falsas nas guerras não é novidade, mas ganhou um poder sem precedentes na era digital." Na cerimônia de abertura da 6ª Cúpula Mundial da Mídia, realizada em Urumqi, Xinjiang, no dia 14, ele falou sobre o impacto das informações falsas. informações sobre o mundo real, Ba Yuhua, chefe do departamento de comunicações da delegação regional do Comitê Internacional da Cruz Vermelha para a Ásia Oriental, expressou preocupação com os danos causados.
A aplicação da IA generativa e da tecnologia de grandes modelos trouxe o mundo para uma era de informação digital onde “o que você vê pode não ser necessariamente digno de crédito, e o que você ouve pode não ser necessariamente verdade”. O surgimento de conteúdo “profundamente falso” de IA multimodal, como sons, vídeos e imagens, criou uma névoa crescente de informações falsas.
“As tecnologias generativas de IA aumentarão o risco de desinformação sofisticada e desinformação. Num mundo com tanto conteúdo, a necessidade de fontes de notícias confiáveis, verificação robusta de factos e transparência só irá crescer.” disse durante a cúpula da mídia.
O Instituto de Avaliação e Pesquisa de Credibilidade de Notícias dos EUA tem rastreado e avaliado a capacidade da IA generativa de criar informações falsas. Um relatório divulgado pela agência no final do ano passado mostrou que o número de sites de notícias falsas criados com recurso a agentes de IA aumentou de 49 para mais de 600 em sete meses.
Embora a aplicação da IA tenha provocado mudanças em toda a ecologia mediática, tornando o ambiente de disseminação de informação cada vez mais diversificado e complexo, o que permanece inalterado é a missão e a responsabilidade dos meios de comunicação social de aderir aos factos e à verdade.
"A tecnologia abriu-nos novas oportunidades, mas também trouxe novos desafios. A inteligência artificial não só melhorará a eficiência da disseminação de notícias, mas também exigirá que repensemos os nossos padrões éticos, Kovacs Tao, CEO do ATV Media Group da Hungria." “Acredito firmemente que a verdade e os factos permanecem no centro dos nossos meios de comunicação e da nossa responsabilidade na era digital”, disse Marsh.
Enfrentando as novas características da produção e disseminação de informações falsas na era digital, como fortalecer regulamentações e orientações para reduzir a geração de informações falsas a partir da fonte, como fazer bom uso dos novos meios tecnológicos para garantir a rastreabilidade e credibilidade do conteúdo; tornaram-se preocupações comuns da mídia em muitos países.
Na Sexta Cúpula Mundial de Mídia, o think tank nacional de alto nível da Agência de Notícias Xinhua divulgou ao mundo o relatório do think tank “Responsabilidade e missão da mídia noticiosa na era da inteligência artificial”. O inquérito do relatório às organizações de comunicação social em 53 países e regiões de todo o mundo mostra que 85,6% dos inquiridos apoiam o reforço da regulamentação e da governação de alguma forma, em resposta aos possíveis efeitos negativos da aplicação de IA generativa na indústria dos meios de comunicação social.
Na cimeira, convidados chineses e estrangeiros tiveram discussões acaloradas sobre como lidar com a propagação de informações falsas causadas pelo abuso da IA. "Esta cimeira criou uma oportunidade para os meios de comunicação globais aumentarem a credibilidade da informação no tratamento da desinformação, da desinformação e do discurso de ódio", disse Chang Qide, Coordenador Residente do Sistema de Desenvolvimento das Nações Unidas na China, num discurso em vídeo durante a cimeira.
As agências das Nações Unidas e os meios de comunicação multinacionais começaram a acelerar a construção de uma linha de defesa da “autenticidade”. Chang Qide disse que as Nações Unidas lançaram este ano os "Princípios Globais de Integridade da Informação", instando governos, empresas de tecnologia, anunciantes, empresas de relações públicas e mídia a cooperarem para construir conjuntamente um ecossistema de informação mais ético.
Globalmente, instituições como a Agência de Notícias Xinhua, a Reuters, a British Broadcasting Corporation e a National Public Radio formularam códigos de conduta e directrizes de IA para prevenir riscos que possam violar a autenticidade na aplicação de IA na indústria dos meios de comunicação social.
“Para cada ameaça criada com a ajuda da IA, a própria tecnologia pode fornecer um ‘antídoto’ eficaz.” Pavel Negoitsa, presidente da Rossiya Gazeta, disse que a IA pode detectar “falsificações profundas” e impedir ações de fraudadores, etc.
Perante a situação em que o público “acredita” facilmente no conteúdo gerado pela inteligência artificial, muitas partes apelaram à adição de rótulos ao conteúdo gerado pela inteligência artificial para ajudar o público a distinguir entre autenticidade e falsidade. Em setembro deste ano, a Administração do Ciberespaço da China solicitou publicamente opiniões sobre as "Medidas para Rotulagem de Conteúdo Sintético Gerado por Inteligência Artificial (Rascunho para Comentário)", afirmando que os provedores de serviços de informação de rede devem rotular de acordo com os requisitos dos padrões nacionais obrigatórios relevantes. . Em 2023, a AFP e as principais organizações de comunicação social europeias emitiram uma declaração sobre a regulamentação da informação sobre IA e iniciativas da indústria, exigindo que os modelos generativos de IA e os utilizadores identificassem de forma clara, específica e consistente o conteúdo gerado pela inteligência artificial contido no seu conteúdo de saída.
Alguns meios de comunicação começaram a cooperar com empresas de tecnologia para construir “firewalls de autenticidade”. A British Broadcasting Corporation e empresas americanas como Adobe, Google, Intel e Microsoft estabeleceram conjuntamente a Content Source and Authenticity Alliance. A aliança trabalha fornecendo rótulos de autenticidade de conteúdo e sistemas de serviços de informações de rastreabilidade histórica para mídia digital.
No futuro, a aplicação da IA irá, sem dúvida, aumentar ainda mais a complexidade do ambiente de informação. Os meios de comunicação social devem aderir ao princípio de que "a autenticidade é a vida das notícias" para dissipar a névoa de informações falsas para o público e criar uma imagem clara. ambiente de opinião pública.