A tecnologia de inteligência artificial está a desenvolver-se rapidamente e a tecnologia de falsificação profunda, como uma das suas aplicações, está a afectar profundamente as nossas vidas. Essa tecnologia pode gerar vídeos e imagens falsas altamente realistas, o que traz muitas conveniências, mas também traz sérios riscos, como usar imagens de celebridades para cometer fraudes. Este artigo discutirá os desafios e contramedidas trazidos pela tecnologia de falsificação profunda, com o objetivo de aumentar a conscientização pública sobre os riscos e manter a ordem social.
Nos últimos anos, a IA penetrou em todos os aspectos da vida, desde assistentes de voz até tecnologia de condução autônoma. No entanto, a aplicação generalizada da tecnologia de IA também traz alguns riscos potenciais, entre os quais a tecnologia deepfake tem atraído a atenção social.
A tecnologia Deepfake usa algoritmos para gerar conteúdo falso altamente realista. Ao aprender com uma grande quantidade de dados reais, gera vídeos ou imagens muito semelhantes a pessoas ou cenas. Embora esta tecnologia demonstre o poder da IA, ela também gera fraudes. Por exemplo, houve incidentes recentes de pessoas que fingiram usar a imagem e a voz do Dr. Zhang Wenhong para promover transmissões ao vivo. No vídeo falso, uma figura sintética promovia determinado produto, resultando na venda de mais de 1.200 itens. Este incidente causou forte insatisfação entre o Dr. Zhang Wenhong e o público.
Nota sobre a fonte da imagem: a imagem é gerada pela IA e pelo provedor de serviços de autorização de imagem Midjourney
Tang Jiansheng, vice-secretário-geral da Comissão de Proteção dos Direitos do Consumidor de Xangai, disse que tal comportamento de personificar imagens de celebridades através da tecnologia de IA constituiu uma violação grave dos direitos do consumidor. Casos semelhantes incluem pessoas que usam o avatar de Lei Jun para fazer vídeos falsos durante o Dia Nacional e personificam a voz de Andy Lau para atrair tráfego. Empresas e celebridades relevantes se manifestaram para alertar o público para ficar mais vigilante.
Especialistas apontam que a tecnologia atual de IA pode facilmente clonar rostos e vozes de outras pessoas, e o conteúdo gerado é extremamente realista. No entanto, este tipo de tecnologia tem suas falhas. Anomalias ainda podem ser encontradas observando cuidadosamente a mistura de um rosto com o fundo ou a correspondência de uma voz com o formato da boca. Além disso, atualmente é difícil conseguir transmissão ao vivo em tempo real com essa tecnologia.
Os profissionais jurídicos deixaram claro que o uso não autorizado da imagem ou voz de outra pessoa é ilegal. Zhu Wei, professor associado da Universidade Chinesa de Ciência Política e Direito, enfatizou que, de acordo com o Código Civil, esse comportamento viola os direitos da personalidade, de acordo com a Lei de Segurança Cibernética, o conteúdo relevante é informação ilegal e o editor pode até enfrentar responsabilidade criminal; .
Para os consumidores, se comprarem produtos porque celebridades falsas de IA trazem produtos, eles podem exigir que o comerciante "reembolse um e compense três" de acordo com a "Lei de Proteção dos Direitos do Consumidor", e o valor mínimo de compensação é de 500 yuans. Ao mesmo tempo, as plataformas de vídeos curtos também devem assumir responsabilidades regulamentares, reforçar a revisão e punição de conteúdos relevantes e evitar a disseminação generalizada de informações ilegais.
A ascensão da tecnologia de falsificação profunda lembra ao público que, ao mesmo tempo que desfruta da conveniência da IA, também precisa de estar atento aos seus riscos potenciais.
Enfrentando o desafio da tecnologia de falsificação profunda, precisamos que o governo, as empresas e os indivíduos trabalhem em conjunto para reforçar a supervisão legislativa, melhorar as capacidades de identificação técnica e construir conjuntamente um ambiente de rede seguro e fiável. Só desta forma a tecnologia de IA poderá ser melhor utilizada, evitar a sua utilização maliciosa e manter a ordem social e os interesses públicos.