De acordo com o Economic Daily, uma série de vídeos de dublagem gerados por IA chamaram a atenção na Internet. Eles não são apenas imagens realistas, mas as características sonoras são quase as mesmas de pessoas reais. 100 milhões de vezes em um curto período de tempo. Porém, o conteúdo desses vídeos nada tem a ver com as figuras públicas das imagens e foi retirado da plataforma.
O desenvolvimento da tecnologia de IA reduziu o limiar para a falsificação profunda e a produção em massa de baixo custo, e imagens geradas por IA e vídeos com mudança de voz e de rosto apareceram em grande número. Embora estes vídeos sejam atraentes, os riscos escondidos por trás deles não podem ser ignorados.
Actualmente, a criação e disseminação de informações falsas tornou-se um problema global, e a utilização de tecnologia de síntese de inteligência artificial para fazer com que pareçam reais está a colocar as pessoas comuns em dificuldades na identificação de informações. O "Relatório de Segurança de Inteligência Artificial de 2024" mostra que a fraude de falsificação profunda baseada em IA aumentará 30 vezes em 2023, representando uma séria ameaça à segurança da rede e à segurança social. A proliferação de informações falsas não só perturba a ordem normal do ciberespaço, mas também pode transmitir emoções negativas do mundo virtual para a realidade, exacerbando a ansiedade social.
Lidar com o caos, como a falsificação profunda, requer colaboração multipartidária e governação conjunta. Actualmente, o nosso país promulgou leis e regulamentos, como o "Regulamento sobre a Gestão de Síntese Aprofundada dos Serviços de Informação da Internet" para fortalecer a gestão de conteúdos desde a fonte. Ao mesmo tempo, o lançamento das "Medidas para Rotulagem de Conteúdo Sintético Gerado por Inteligência Artificial (Rascunho para Comentários)" também marca que o nível nacional está aumentando a supervisão da tecnologia de IA. Somente permitindo que a IA se desenvolva de forma saudável dentro de uma estrutura legal e conforme as pessoas poderão realmente desfrutar dos dividendos trazidos pelas mudanças tecnológicas e promover o desenvolvimento saudável da indústria de inteligência artificial.
Como parte importante da disseminação de informações, os operadores de plataformas e prestadores de serviços também devem assumir responsabilidades correspondentes, traçar limites para conteúdos gerados por IA, proibir estritamente a disseminação de conteúdos ilegais, infratores e fraudulentos e adicionar sinais de alerta proeminentes para evitar a difusão de informações falsas. . Além disso, a utilização de marcas de água digitais, carimbos temporais, funções hash e outros meios técnicos pode não só melhorar a verificabilidade da autenticidade da informação, mas também ser um meio eficaz para prevenir a propagação de informações falsas. Como consumidores de conteúdo, o público também deve permanecer vigilante, melhorar a sua capacidade de identificar conteúdos gerados por IA e evitar crenças tendenciosas.