Kürzlich erfuhr der Herausgeber von Downcodes, dass Google angekündigt hat, den Suchergebnissen eine neue Funktion hinzuzufügen, um der wachsenden Herausforderung durch KI-generierte Inhalte gerecht zu werden und die Fähigkeit der Nutzer zu verbessern, die Authentizität von Inhalten zu erkennen. Diese Funktion soll Benutzern helfen, besser zu verstehen, wo Bilder erstellt und bearbeitet werden, und so die negativen Auswirkungen von Fehlinformationen und Deepfake-Bildern zu reduzieren. Die Einführung dieser Funktion ist ein wichtiger Schritt nach dem Beitritt von Google zur Content Provenance and Authenticity Alliance (C2PA), zu deren Mitgliedern auch Technologiegiganten wie Amazon, Adobe und Microsoft gehören.
Kürzlich kündigte Google die Einführung einer neuen Funktion in seinen Suchergebnissen an, die den Nutzern helfen soll, besser zu verstehen, wie Inhalte erstellt und geändert werden. Der Schritt erfolgt, nachdem Google der Content Provenance and Authenticity Alliance (C2PA) beigetreten ist, zu der große Marken wie Amazon, Adobe und Microsoft gehören und die sich der Bekämpfung von Online-Desinformation widmet.
Google sagte, dass die neue Funktion, die in den nächsten Monaten schrittweise eingeführt wird, den aktuellen Standard für Inhaltsnachweise (d. h. die Metadaten des Bildes) nutzt, um KI-generierte oder bearbeitete Bilder in der Suche zu markieren und so die Transparenz für Benutzer zu erhöhen.
Benutzer können sehen, ob es KI-generiert wurde, indem sie auf die drei Punkte über dem Bild klicken und „Über dieses Bild“ auswählen. Diese Funktion steht Nutzern auch über Google Lens und die „Circle to Search“-Funktion von Android zur Verfügung. Es ist jedoch zu beachten, dass dieses Tag nicht sehr auffällig ist und Benutzer zusätzliche Schritte unternehmen müssen, um die Herkunft eines Bildes zu bestätigen.
In den letzten Jahren sind mit der Entwicklung der KI-Technologie die Probleme der Video-Deep-Fake-Technologie und der KI-generierten Bilder immer ernster geworden. Beispielsweise veröffentlichte Trump einmal ein fiktives Bild von Taylor Swift, der seinen Wahlkampf unterstützte, was für viele Missverständnisse und Kontroversen sorgte. Darüber hinaus stieß Taylor Swift auch auf bösartige Bilder, die von KI erzeugt wurden, was Zweifel an der Authentizität der KI-Bilder aufkommen ließ.
Obwohl die Einführung dieser Funktion durch Google ein guter Anfang ist, bestehen weiterhin Bedenken, ob diese versteckte Bezeichnung effektiv genug ist. Viele Benutzer wissen möglicherweise nicht, dass die Funktion „Über dieses Bild“ vorhanden ist, und können dieses neue Tool möglicherweise nicht in vollem Umfang nutzen. Darüber hinaus implementieren derzeit nur wenige Kameramodelle und einige Software die Inhaltsgutscheinfunktion, was die Wirksamkeit des Systems ebenfalls einschränkt.
Laut einer Studie der University of Waterloo können nur 61 % der Menschen den Unterschied zwischen einem KI-generierten Bild und einem echten Bild erkennen. Das bedeutet, dass es schwierig sein wird, echte Transparenz zu gewährleisten, wenn das Tagging-System von Google nicht effektiv genutzt werden kann an Benutzer.
Highlight:
Google wird eine neue Funktion zur Kennzeichnung von KI-generierten und bearbeiteten Bildern einführen, um die Benutzertransparenz zu erhöhen.
Nutzer können über die Funktion „Über dieses Bild“ überprüfen, ob das Bild von KI generiert wurde, die Beschriftung ist jedoch nicht auffällig.
? Untersuchungen zeigen, dass nur 61 % der Menschen KI-Bilder von echten Bildern unterscheiden können und Google die Sichtbarkeit von Etiketten verbessern muss.
Alles in allem ist Googles Schritt zwar ein wichtiger Schritt im Kampf gegen Desinformation, seine Wirksamkeit bleibt jedoch abzuwarten. Die Erhöhung der Sichtbarkeit von Tags und die Popularisierung der Content-Voucher-Technologie werden Schlüsselrichtungen für zukünftige Verbesserungen sein. Der Herausgeber von Downcodes wird der Weiterentwicklung dieser Funktion weiterhin Aufmerksamkeit schenken und den Lesern relevantere Informationen zur Verfügung stellen.