Kürzlich kam es in einer Bundesklage in Minnesota zu einer hochkarätigen Kontroverse über das Gesetz, das „Deepfake-Technologie zur Beeinflussung von Wahlen einsetzt“: Der Inhalt der eidesstattlichen Erklärung, die das Gesetz stützt, wurde als KI-generierter Text in Frage gestellt. Der Kern dieses Vorfalls besteht darin, dass in den vom Generalstaatsanwalt vorgelegten Beweisen behauptet wurde, dass viele Forschungsarbeiten nicht existierten, was Bedenken hinsichtlich der Anwendung der Technologie der künstlichen Intelligenz im juristischen Bereich und ernsthafte Herausforderungen bei der Überprüfung der Authentizität aufkommen ließ von Informationen. Dieser Vorfall steht nicht nur im Zusammenhang mit der Fairness von Gerichtsverfahren, sondern unterstreicht auch die Bedeutung der Aufrechterhaltung der Informationsgenauigkeit im Zeitalter der künstlichen Intelligenz.
Kürzlich ist in einem laufenden Bundesgerichtsverfahren in Minnesota eine neue Kontroverse über den Einsatz von Deepfakes zur Beeinflussung von Wahlen aufgetaucht. Eidesstattliche Erklärungen zur Untermauerung des Gesetzes könnten durch künstliche Intelligenz generierte Texte enthalten, erklärten die Anwälte der Kläger in der jüngsten Klageschrift.
Hinweis zur Bildquelle: Das Bild wird von AI und dem Bildautorisierungsdienstleister Midjourney generiert
Nach Angaben des Minnesota Reformer hat der Generalstaatsanwalt des Staates Keith Ellison Jeff Hancock, den Gründungsdirektor des Stanford Social Media Lab, gebeten, relevante Beweise vorzulegen. Allerdings fehlen mehreren der in Hancocks eidesstattlicher Erklärung erwähnten Studien substanzielle Beweise und sie zeigen mögliche KI-„Halluzinationen“.
Hancocks eidesstattliche Erklärung zitierte eine 2023 im Journal of Information Technology and Politics veröffentlichte Studie mit dem Titel „The Impact of Deepfake Videos on Political Attitudes and Behavior“.
Berichten zufolge wurden jedoch keine Aufzeichnungen über die Studie in der Zeitschrift oder einer anderen Veröffentlichung gefunden. Darüber hinaus mangelt es einer weiteren in der eidesstattlichen Erklärung erwähnten Studie mit dem Titel „Deepfakes und die Illusion der Authentizität: Kognitive Prozesse hinter der Akzeptanz von Fehlinformationen“ ebenfalls an empirischer Grundlage.
Als Reaktion darauf sagten die Anwälte der Abgeordneten Mary Franson aus Minnesota und des konservativen YouTubers Christopher Khols in der Akte: „Diese Zitate haben eindeutig die Wirkung von ‚Illusions‘-Funktionen künstlicher Intelligenz (KI), was impliziert, dass zumindest ein Teil des Inhalts im Großen und Ganzen generiert wird.“ Sprachmodelle wie ChatGPT.“ Sie wiesen außerdem darauf hin, dass eine solche Situation die Glaubwürdigkeit der gesamten eidesstattlichen Erklärung in Frage stelle, insbesondere weil vielen ihrer Argumente die Unterstützung durch Methodik und analytische Logik fehlt.
Hancock reagierte nicht auf den Vorfall. Dieser Vorfall löste eine Diskussion über den Einsatz künstlicher Intelligenz im Rechtsbereich aus, insbesondere wenn es um öffentliches Interesse und Wahlangelegenheiten geht. Wie die Genauigkeit und Zuverlässigkeit von Informationen sichergestellt werden kann, ist zu einem wichtigen Thema geworden.
Dieser Vorfall lenkt nicht nur die Aufmerksamkeit auf die Auswirkungen der Deepfakes-Technologie, sondern liefert auch neue Denkweisen für die Rechtsgemeinschaft im Umgang mit Beweisen im Zusammenhang mit künstlicher Intelligenz. Die effektive Identifizierung und Überprüfung von Informationsquellen ist zu einer wichtigen Herausforderung geworden, der sich die Rechtspraxis stellen muss.
Highlight:
Der Inhalt der eidesstattlichen Erklärung zum Minnesota Deepfakes Act wurde als KI-generierter Text in Frage gestellt.
Das Rechtsteam wies darauf hin, dass die zitierte Untersuchung nicht existierte und vermutete, dass es sich um eine KI-„Halluzination“ handelte.
Dieser Vorfall löste eine breite Diskussion über den Einsatz künstlicher Intelligenz in juristischen Dokumenten aus, wobei der Schwerpunkt auf der Genauigkeit von Informationen lag.
Dieser Vorfall hat in der Rechtswelt Alarm geschlagen und uns daran erinnert, dass wir die Anwendung der Technologie der künstlichen Intelligenz in rechtlichen Beweisen erneut prüfen und einen umfassenderen Überprüfungsmechanismus einrichten müssen, um die Fairness und Zuverlässigkeit rechtlicher Verfahren sicherzustellen. In Zukunft wird es ein wichtiges Thema sein, wie man durch KI generierte Falschinformationen effektiv erkennt und verhindert.