Mit dem Aufkommen der generativen KI ist die Verbreitung falscher Informationen zu einem ernsten Problem geworden. Die rasante Entwicklung der Deep-Forgery-Technologie hat die Netzwerksicherheit vor große Herausforderungen gestellt. Um dieser Bedrohung entgegenzuwirken, hat Meta ein neues Tool namens Meta Video Seal auf den Markt gebracht, das darauf abzielt, Deepfake-Videos zu bekämpfen und die Originalität von Inhalten durch nicht wahrnehmbare Wasserzeichentechnologie zu schützen. Dieses Tool wurde als Open Source veröffentlicht und mit dem zuvor veröffentlichten Wasserzeichen-Tool von Meta kombiniert, um eine umfassendere Anti-Deepfake-Lösung zu bilden.
Mit der Kommerzialisierung generativer künstlicher Intelligenz hat die Menge falscher Inhalte im Internet dramatisch zugenommen. Nach Angaben der Identitätsprüfungsplattform Sumsub wird sich die Zahl der weltweiten Deepfakes von 2023 bis 2024 vervierfachen. Deepfakes werden im Jahr 2024 7 % aller Betrügereien ausmachen und dabei alles von Identitätsdiebstahl und Kontoübernahmen bis hin zu raffinierten Social-Engineering-Kampagnen umfassen.
Um dieses Problem zu bekämpfen, hat Meta ein neues Tool namens Meta Video Seal veröffentlicht, das Deepfakes bekämpfen soll, indem es KI-generierten Videos unsichtbare Wasserzeichen hinzufügt. Das am Donnerstag als Open Source veröffentlichte Tool ist so konzipiert, dass es problemlos in bestehende Software integriert werden kann und die anderen zuvor eingeführten Wasserzeichen-Tools von Meta, Watermark Anything und Audio Seal, ergänzt.
„Wir haben Video Seal entwickelt, um eine effektivere Video-Wasserzeichenlösung bereitzustellen, insbesondere zur Erkennung von KI-generierten Videos und zum Schutz der Originalität“, sagte Pierre Fernandez, Forscher für künstliche Intelligenz bei Meta, in einem Interview.
Obwohl Video Seal nicht die erste vorgeschlagene Video-Wasserzeichen-Technologie ist, wurden auch SynthID von DeepMind und die Wasserzeichen-Methoden von Microsoft auf dem Markt verwendet. Fernandez wies jedoch darauf hin, dass bestehende Wasserzeichen-Tools im Allgemeinen einige Mängel aufweisen. Er sagte: „Obwohl es andere Wasserzeichen-Tools gibt, funktionieren diese nach der Videokomprimierung nicht gut, was bei der Verbreitung von Inhalten auf sozialen Plattformen sehr häufig vorkommt; einige Methoden arbeiten auch weniger effizient und können nicht geöffnet oder repliziert werden; darüber hinaus sind viele Methoden verfügbar.“ abgeleitet vom Bild-Wasserzeichen, aber das Bild-Wasserzeichen ist nicht für Videos geeignet.“
Zusätzlich zur Wasserzeichenfunktion kann Video Seal auch versteckte Informationen in Videos einbetten, die später offengelegt werden können, um die Quelle des Videos zu ermitteln. Meta behauptet, dass Video Seal gängigen Bearbeitungsmethoden wie Unschärfe und Zuschneiden sowie häufig verwendeten Komprimierungsalgorithmen wirksam widerstehen kann.
Allerdings räumte Fernandez auch ein, dass Video Seal bestimmte Einschränkungen aufweist, insbesondere den Kompromiss zwischen der Erkennbarkeit des Wasserzeichens und seiner Manipulationssicherheit. Er weist darauf hin, dass übermäßige Komprimierung und umfangreiche Bearbeitung Wasserzeichen zerstören oder unwiederbringlich machen können.
Eine größere Herausforderung für Meta ist der Mangel an Anreizen für Entwickler und Branchenakteure, Video Seal zu verwenden, insbesondere für diejenigen, die bereits andere proprietäre Lösungen verwenden. Zu diesem Zweck hat Meta eine öffentliche Rangliste namens Meta Omni Seal Bench ins Leben gerufen, um die Leistung verschiedener Wasserzeichentechnologien zu vergleichen, und wird auf der diesjährigen großen KI-Konferenz ICLR ein Seminar über Wasserzeichentechnologie abhalten.
„Wir hoffen, dass immer mehr KI-Forscher und -Entwickler irgendeine Form der Wasserzeichentechnologie in ihre Arbeit integrieren, und wir hoffen, mit Industrie und Wissenschaft zusammenzuarbeiten, um schnellere Fortschritte auf diesem Gebiet voranzutreiben“, sagte Fernandez.
Die Open-Source-Veröffentlichung von Meta Video Seal stellt eine neue Waffe im Kampf gegen Deep-Fälschungen dar, aber ob es die Verbreitung falscher Informationen wirksam eindämmen kann, bedarf noch einer Prüfung der Zeit und der gemeinsamen Anstrengungen der Branche. Die kontinuierliche Weiterentwicklung und breite Anwendung der Technologie wird der Schlüssel zur Lösung dieses Problems sein.