YouTube a récemment mis à jour ses directives de confidentialité, en ajoutant un mécanisme permettant aux utilisateurs de demander la suppression du contenu généré par l'IA qui imite leur apparence ou leur voix. Cette mesure complète la réglementation de la technologie de l’IA et vise à remédier aux violations potentielles de la vie privée. Bien que ce mécanisme ne soit pas particulièrement important dans les lignes directrices mises à jour, son importance ne peut être ignorée. Il marque une étape importante pour YouTube dans la résolution des problèmes de confidentialité posés par la technologie de l’IA. Le lancement de ce mécanisme reflète également l’accent mis par YouTube sur le développement responsable de l’IA.
YouTube, la plus grande plate-forme vidéo au monde, a lancé un nouveau mécanisme qui permettra aux utilisateurs de demander la suppression du contenu généré par l'IA qui imite leur apparence ou leur voix, développant ainsi la surveillance légère actuelle de la technologie.
Bien que le mécanisme ait été discrètement ajouté à une mise à jour des directives de confidentialité de YouTube le mois dernier, TechCrunch ne l'a remarqué que cette semaine. YouTube considère l'utilisation de la technologie de l'IA pour « modifier ou créer du contenu synthétique qui vous ressemble » comme une violation potentielle de la vie privée plutôt que comme un problème de droit d'auteur ou de tromperie.
Cependant, ceux qui demandent la suppression ne bénéficient pas d'une garantie de suppression, et les normes de YouTube laissent une place considérable à l'ambiguïté. YouTube a déclaré qu'il prendrait en compte des facteurs tels que si le contenu est divulgué comme « modifié ou synthétisé », si un individu « peut être identifié de manière unique » et si le contenu est « réaliste ». En outre, il existe ici une lacune énorme et courante, à savoir si le contenu est considéré comme une parodie ou une satire, ou, de manière encore plus ambiguë, s'il a une valeur « d'intérêt public ». Ces vagues réserves indiquent que YouTube adopte une position plutôt faible à cet égard et n’est en aucun cas anti-IA.
YouTube adhère à ses normes en matière de protection des violations de la vie privée de toute nature et n'accepte que les réclamations de première partie. Les réclamations de tiers ne seront prises en compte que dans des circonstances exceptionnelles, par exemple si la personne usurpée n'a pas accès à Internet, est mineure ou est décédée.
Si la réclamation est approuvée, YouTube donnera au téléchargeur incriminé 48 heures pour traiter la plainte, ce qui peut inclure le recadrage ou le flou de la vidéo pour supprimer le contenu problématique, ou la suppression complète de la vidéo. Si les utilisateurs qui mettent en ligne ne prennent pas de mesures en temps opportun, leurs vidéos seront soumises à un examen plus approfondi par l'équipe YouTube.
Ces directives sont toutes belles, mais la vraie question est de savoir comment YouTube les met en œuvre dans la pratique. Comme le souligne TechCrunch, en tant que plate-forme appartenant à Google, YouTube a ses propres intérêts dans le domaine de l'IA, notamment en publiant des outils de génération de musique et des robots qui présentent des commentaires sous de courtes vidéos.
C’est peut-être la raison pour laquelle cette nouvelle fonctionnalité de demande de suppression de contenu IA se déploie discrètement, dans le prolongement modeste de l’initiative d’IA « responsable » qui a débuté l’année dernière et qui exige désormais que le contenu réaliste généré par l’IA soit divulgué en mars.
Points forts:
- YouTube a lancé un mécanisme de plainte pour imitation de contenu AI.
- Ceux qui demandent la suppression ne bénéficient pas d'une garantie de suppression, et les normes de YouTube laissent une place considérable à l'ambiguïté.
- Les réclamations de tiers ne seront prises en compte que dans des circonstances exceptionnelles, par exemple si la personne usurpée n'a pas accès à Internet, est mineure ou est décédée.
Dans l’ensemble, même si le nouveau mécanisme de YouTube offre une certaine garantie quant à la protection de la vie privée des contenus générés par l’IA, ses normes vagues et ses difficultés de mise en œuvre nécessitent encore une attention particulière. À l’avenir, la manière de mieux équilibrer le développement technologique et la protection de la vie privée des utilisateurs sera un sujet important que YouTube et l’ensemble du secteur devront continuer à explorer.