Kürzlich kam es in einer Bundesklage in Minnesota zu einer hochkarätigen Kontroverse über den Einsatz von Deepfakes zur Beeinflussung von Wahlen. In den vom Generalstaatsanwalt vorgelegten Beweisen wurde vermutet, dass einige Verweise auf wichtige Forschungsergebnisse durch künstliche Intelligenz generiert wurden, was eine breite Diskussion über den Einsatz künstlicher Intelligenz im Rechtsbereich und wichtige Fragen zur Gewährleistung der Genauigkeit und Zuverlässigkeit auslöste von Informationen. Der Herausgeber von Downcodes wird eine detaillierte Analyse dieses Vorfalls durchführen.
Hinweis zur Bildquelle: Das Bild wird von AI und dem Bildautorisierungsdienstleister Midjourney generiert
Nach Angaben des Minnesota Reformer hat der Generalstaatsanwalt des Staates Keith Ellison Jeff Hancock, den Gründungsdirektor des Stanford Social Media Lab, gebeten, relevante Beweise vorzulegen. Allerdings fehlen mehreren der in Hancocks eidesstattlicher Erklärung erwähnten Studien substanzielle Beweise und sie zeigen mögliche KI-„Halluzinationen“.
Hancocks eidesstattliche Erklärung zitierte eine 2023 im Journal of Information Technology and Politics veröffentlichte Studie mit dem Titel „The Impact of Deepfake Videos on Political Attitudes and Behavior“.
Berichten zufolge wurden jedoch keine Aufzeichnungen über die Studie in der Zeitschrift oder einer anderen Veröffentlichung gefunden. Darüber hinaus mangelt es einer weiteren in der eidesstattlichen Erklärung erwähnten Studie mit dem Titel „Deepfakes und die Illusion der Authentizität: Kognitive Prozesse hinter der Akzeptanz von Fehlinformationen“ ebenfalls an empirischer Grundlage.
Als Reaktion darauf sagten die Anwälte der Abgeordneten Mary Franson aus Minnesota und des konservativen YouTubers Christopher Khols in der Akte: „Diese Zitate haben eindeutig die Wirkung von ‚Illusions‘-Funktionen künstlicher Intelligenz (KI), was impliziert, dass zumindest ein Teil des Inhalts im Großen und Ganzen generiert wird.“ Sprachmodelle wie ChatGPT.“ Sie wiesen außerdem darauf hin, dass eine solche Situation die Glaubwürdigkeit der gesamten eidesstattlichen Erklärung in Frage stelle, insbesondere weil vielen ihrer Argumente die Unterstützung durch Methodik und analytische Logik fehlt.
Hancock reagierte nicht auf den Vorfall. Dieser Vorfall löste eine Diskussion über den Einsatz künstlicher Intelligenz im Rechtsbereich aus, insbesondere wenn es um öffentliches Interesse und Wahlangelegenheiten geht. Wie die Genauigkeit und Zuverlässigkeit von Informationen sichergestellt werden kann, ist zu einem wichtigen Thema geworden.
Dieser Vorfall lenkt nicht nur die Aufmerksamkeit auf die Auswirkungen der Deepfakes-Technologie, sondern liefert auch neue Denkweisen für die Rechtsgemeinschaft im Umgang mit Beweisen im Zusammenhang mit künstlicher Intelligenz. Die effektive Identifizierung und Überprüfung von Informationsquellen ist zu einer wichtigen Herausforderung geworden, der sich die Rechtspraxis stellen muss.
Dieser Vorfall machte die Risiken der Anwendung von KI-Technologie im juristischen Bereich deutlich und warnte uns auch davor, dass wir bei KI-generierten Inhalten vorsichtig sein müssen, insbesondere bei der Verwendung von Beweismaterialien, und dass eine strenge Überprüfung und Verifizierung erforderlich ist, um die Authentizität sicherzustellen und Zuverlässigkeit der Informationen. Dies ist von entscheidender Bedeutung für die Wahrung der Fairness und Autorität des Gesetzes.