Le développement rapide de la technologie Deepfake a entraîné de graves menaces pour la sécurité des réseaux, et les fausses informations sont monnaie courante. Selon les statistiques, la fraude liée aux Deepfakes s’est développée rapidement et est devenue un problème incontournable. Afin de relever ce défi, les entreprises technologiques ont recherché des solutions les unes après les autres, parmi lesquelles l'outil Video Seal lancé par Meta Company a attiré beaucoup d'attention. L'outil vise à lutter contre les deepfakes en ajoutant des filigranes imperceptibles aux vidéos générées par l'IA, et rend sa technologie open source pour promouvoir une collaboration et un développement plus larges.
Aujourd’hui, les deepfakes sont omniprésents. À mesure que l’IA générative gagne en popularité, les faux contenus sur le Web ont explosé. Selon les statistiques de la plateforme de vérification d’identité Sumsub, le nombre de Deepfakes mondiaux va quadrupler entre 2023 et 2024. En 2024, Deepfake représentera 7 % de toutes les fraudes, allant de l'usurpation d'identité et du vol de compte aux attaques complexes d'ingénierie sociale, impliquant toutes Deepfake.
Afin de lutter efficacement contre les Deepfakes, Meta a récemment publié un outil capable d'ajouter des filigranes imperceptibles aux clips vidéo générés par l'IA. L'outil, appelé Meta Video Seal, a été annoncé comme open source jeudi et est conçu pour être intégré aux logiciels existants. Cet outil rejoint les autres outils de filigrane de Meta, Watermark Anything (réédité aujourd'hui sous licence permissive) et Audio Seal pour former une solution complète de filigrane.
"Nous avons développé Video Seal pour fournir une solution de filigrane vidéo plus efficace, en particulier lorsqu'il s'agit de détecter les vidéos générées par l'IA et de protéger l'originalité", a déclaré Pierre Fernandez, chercheur en Meta AI, à TechCrunch.
Video Seal n’est pas la première technologie de ce type. SynthID de DeepMind peut ajouter des filigranes aux vidéos, et Microsoft dispose également de sa propre méthode de filigrane vidéo.
Mais Fernandez estime que de nombreuses méthodes existantes ne suffisent pas.
"Bien que d'autres outils de filigrane existent, ils ne sont pas assez robustes pour la compression vidéo (ce qui est très courant lorsque le contenu est partagé via des plateformes sociales) ; ne fonctionnent pas assez efficacement pour une application à grande échelle ; ne sont pas suffisamment ouverts ou reproductibles ; ou sont dérivés des filigranes d'image, et les filigranes d'image ne sont pas la meilleure option pour la vidéo », a déclaré Fernandez.
En plus des filigranes, Video Seal peut ajouter des messages cachés aux vidéos pour révéler ultérieurement la source de la vidéo. Meta affirme que Video Seal peut résister aux opérations d'édition courantes telles que le flou et le recadrage, ainsi qu'aux algorithmes de compression courants.
Fernandez a reconnu que Video Seal présente certaines limites, principalement un compromis entre la perceptibilité du filigrane et sa résistance globale à la manipulation. Il a ajouté qu'une compression et une édition lourdes pourraient altérer le filigrane ou le rendre irrécupérable.
Bien entendu, le plus gros problème de Video Seal est qu’il n’y a pas beaucoup de raisons pour que les développeurs et l’industrie l’adoptent, en particulier ceux qui utilisent déjà des solutions propriétaires. Pour résoudre ce problème, Meta lance une liste de classement publique, Meta Omni Seal Bench, spécialement conçue pour comparer les performances de diverses méthodes de tatouage. De plus, Meta organisera un atelier sur le filigrane lors de l'ICLR (International Conference on Learning Representations) de cette année. L'ICLR est une conférence importante sur l'IA.
"Nous espérons que de plus en plus de chercheurs et de développeurs en IA intégreront une certaine forme de filigrane dans leur travail", a déclaré Fernandez. "Nous espérons travailler avec l'industrie et le monde universitaire pour faire avancer plus rapidement les progrès dans ce domaine."
Cette démarche de Meta apporte sans aucun doute de nouvelles idées pour lutter contre la prolifération des Deepfake. L’open source et la collaboration ouverte peuvent constituer un moyen efficace de résoudre cet épineux problème. Cependant, l’avenir de Video Seal dépend encore de sa capacité à être largement accepté et appliqué par l’industrie, ainsi que de sa capacité à lutter contre les Deepfakes.
Dans l'ensemble, l'outil Video Seal de Meta constitue une nouvelle tentative de lutte contre le Deepfake, mais son succès reste à voir. À l'avenir, davantage d'innovation technologique et de coopération industrielle seront nécessaires pour résoudre efficacement le problème du Deepfake. L'open source et un esprit de collaboration sont essentiels, mais cela prend du temps et des efforts soutenus.