Selon l'Economic Daily, une série de vidéos doublées générées par l'IA ont attiré l'attention sur Internet. Elles sont étonnamment réalistes. Non seulement les images sont réalistes, mais les caractéristiques sonores sont presque les mêmes que celles de personnes réelles. 100 millions de fois en peu de temps. Cependant, le contenu de ces vidéos n’a rien à voir avec les personnalités publiques présentes dans les images et a été supprimé de la plateforme.
Le développement de la technologie de l’IA a abaissé le seuil de la falsification profonde et de la production de masse à faible coût, et les images générées par l’IA, ainsi que les vidéos changeant de voix et de visage, sont apparues en grand nombre. Même si ces vidéos sont accrocheuses, les risques qui se cachent derrière elles ne peuvent être ignorés.
Actuellement, la création et la diffusion de fausses informations sont devenues un problème mondial, et l’utilisation de la technologie de synthèse de l’intelligence artificielle pour les rendre réelles met les gens ordinaires en difficulté dans l’identification des informations. Le « Rapport sur la sécurité de l'intelligence artificielle 2024 » montre que la fraude par contrefaçon profonde basée sur l'IA augmentera de 30 fois en 2023, posant une menace sérieuse pour la sécurité des réseaux et la sécurité sociale. La prolifération de fausses informations perturbe non seulement l’ordre normal du cyberespace, mais peut également transmettre des émotions négatives du monde virtuel à la réalité, exacerbant ainsi l’anxiété sociale.
Faire face à un chaos tel que la contrefaçon profonde nécessite une collaboration multipartite et une gouvernance conjointe. À l'heure actuelle, notre pays a promulgué des lois et des réglementations telles que le « Règlement sur la gestion de synthèse approfondie des services d'information sur Internet » pour renforcer la gestion du contenu à partir de la source. Dans le même temps, la publication des « Mesures d'étiquetage du contenu synthétique généré par l'intelligence artificielle (projet pour commentaires) » marque également que le niveau national renforce la surveillance de la technologie de l'IA. Ce n’est qu’en permettant à l’IA de se développer sainement dans un cadre juridique et conforme que les gens pourront véritablement profiter des dividendes apportés par les changements technologiques et promouvoir le développement sain de l’industrie de l’intelligence artificielle.
En tant qu'élément important de la diffusion de l'information, les opérateurs de plateformes et les fournisseurs de services devraient également assumer les responsabilités correspondantes, tracer des lignes rouges pour le contenu généré par l'IA, interdire strictement la diffusion de contenus illégaux, contrefaits et frauduleux et ajouter des panneaux d'avertissement bien visibles pour empêcher la diffusion de fausses informations. . En outre, l’utilisation de filigranes numériques, d’horodatages, de fonctions de hachage et d’autres moyens techniques peut non seulement améliorer la vérifiabilité de l’authenticité des informations, mais constitue également un moyen efficace d’empêcher la propagation de fausses informations. En tant que consommateurs de contenu, les publics doivent également rester vigilants, améliorer leur capacité à identifier le contenu généré par l’IA et éviter les croyances biaisées.