La technologie de l’intelligence artificielle se développe rapidement et la technologie de contrefaçon profonde, en tant qu’une de ses applications, affecte profondément nos vies. Cette technologie peut générer de fausses vidéos et images très réalistes, ce qui apporte de nombreux avantages mais comporte également de sérieux risques, comme l'utilisation d'images de célébrités pour commettre une fraude. Cet article discutera des défis et des contre-mesures apportés par la technologie de contrefaçon profonde, visant à accroître la sensibilisation du public aux risques et à maintenir l'ordre social.
Ces dernières années, l’IA a pénétré tous les aspects de la vie, des assistants vocaux aux technologies de conduite autonome. Cependant, l’application généralisée de la technologie de l’IA comporte également certains risques potentiels, parmi lesquels la technologie des deepfakes a attiré l’attention de la société.
La technologie Deepfake utilise des algorithmes pour générer de faux contenus très réalistes. En apprenant à partir d’une grande quantité de données réelles, elle génère des vidéos ou des images très similaires à des personnes ou à des scènes. Bien que cette technologie démontre la puissance de l’IA, elle engendre également la fraude. Par exemple, il y a eu récemment des incidents où des personnes prétendaient utiliser l'image et la voix du Dr Zhang Wenhong pour promouvoir des émissions en direct. Dans la fausse vidéo, un personnage synthétique faisait la promotion d’un certain produit, entraînant la vente de plus de 1 200 articles. Cet incident a provoqué un fort mécontentement entre le Dr Zhang Wenhong et le public.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
Tang Jiansheng, secrétaire général adjoint de la Commission de protection des droits des consommateurs de Shanghai, a déclaré qu'un tel comportement consistant à usurper l'identité d'images de célébrités grâce à la technologie de l'IA constituait une grave violation des droits des consommateurs. Des cas similaires incluent des personnes utilisant la photo de profil de Lei Jun pour réaliser de fausses vidéos pendant la fête nationale et se faisant passer pour la voix d'Andy Lau pour attirer du trafic. Des entreprises et des célébrités concernées se sont prononcées pour avertir le public d'être plus vigilant.
Les experts soulignent que la technologie actuelle de l'IA peut facilement cloner les visages et les voix d'autres personnes, et que le contenu généré est extrêmement réaliste. Cependant, ce type de technologie n’est pas sans défauts. Des anomalies peuvent encore être détectées en observant attentivement la fusion d'un visage avec l'arrière-plan ou l'adéquation d'une voix avec une forme de bouche. De plus, la diffusion en direct en temps réel est actuellement difficile à réaliser avec une telle technologie.
Les professionnels du droit ont clairement indiqué que l’utilisation non autorisée de l’image ou de la voix d’autrui est illégale. Zhu Wei, professeur agrégé à l'Université chinoise des sciences politiques et du droit, a souligné que selon le Code civil, ce comportement porte atteinte aux droits de la personnalité, selon la loi sur la cybersécurité, le contenu concerné est une information illégale et l'éditeur peut même encourir une responsabilité pénale ; .
Pour les consommateurs, s'ils achètent des biens parce que de fausses célébrités d'IA apportent des biens, ils peuvent exiger du commerçant qu'il « en rembourse un et en indemnise trois » conformément à la « Loi sur la protection des droits des consommateurs », et le montant minimum de l'indemnisation est de 500 yuans. Dans le même temps, les plateformes de vidéos courtes devraient également assumer des responsabilités réglementaires, renforcer l'examen et les sanctions des contenus pertinents et éviter la diffusion généralisée d'informations illégales.
L’essor de la technologie de contrefaçon profonde rappelle au public que tout en bénéficiant de la commodité de l’IA, il doit également être vigilant quant à ses risques potentiels.
Face au défi de la technologie de contrefaçon profonde, nous avons besoin que le gouvernement, les entreprises et les individus travaillent ensemble pour renforcer la supervision législative, améliorer les capacités techniques d'identification et construire conjointement un environnement de réseau sûr et fiable. Ce n’est qu’ainsi que la technologie de l’IA pourra être mieux utilisée, éviter son utilisation malveillante et maintenir l’ordre social et les intérêts publics.