Jeff Hancock, Professor an der Stanford University, wurde beschuldigt, in seiner Expertenaussage in einem Fall mit politischen Deepfake-Videos eine nicht existierende Studie zitiert zu haben, die Fragen zur akademischen Integrität und zur Anwendung von KI im juristischen Bereich aufwirft. In dem vom Generalstaatsanwalt von Minnesota, Keith Ellison, eingereichten Fall geht es um ein Verbot in Minnesota, das eine Bedrohung für die freie Meinungsäußerung darstellen könnte. Die Aussage von Professor Hancock unterstützte das Verbot, aber das Rechtsteam des Klägers kam zu dem Schluss, dass die von ihm zitierten Forschungsergebnisse nicht existierten, und ging davon aus, dass es sich möglicherweise um falsche, von KI generierte Inhalte handelte, was die Glaubwürdigkeit der Aussage ernsthaft beeinträchtigte.
Kürzlich erregte der Kommunikationsprofessor der Stanford University, Jeff Hancock, große Aufmerksamkeit, nachdem ihm vorgeworfen wurde, in einem Fall mit politischen Deepfake-Videos künstliche Intelligenz eingesetzt zu haben, um Aussagen zu fälschen. Der Fall wurde vom Generalstaatsanwalt von Minnesota, Keith Ellison, wegen des kürzlich in Minnesota verabschiedeten Gesetzes zum Verbot politischer Deepfake-Videos eingereicht, das als potenzielle Bedrohung für die freie Meinungsäußerung angesehen wurde.
Hinweis zur Bildquelle: Das Bild wird von AI und dem Bildautorisierungsdienstleister Midjourney generiert
Darin legte Professor Hancock eine Expertenerklärung vor, die das vom Generalstaatsanwalt befürwortete Gesetz unterstützte. Das Rechtsteam stellte jedoch fest, dass eine von Hancock zitierte Studie mit dem Titel „The Impact of Deepfake Videos on Political Attitudes and Behavior“ nicht existierte. In einem 36-seitigen Memo wiesen sie darauf hin, dass entsprechende Fachzeitschriften zwar existierten, derartige Forschungsergebnisse jedoch nie veröffentlicht worden seien.
In dem Memo erläuterten die Anwälte ihre Versuche, die Studie zu finden, und betonten, dass die Informationen im Internet und in mehreren akademischen Suchmaschinen nicht gefunden werden konnten. Sie sagten: „Ein Fragment dieses Titels ist nirgendwo zu finden, nicht einmal in der akademischen Suchmaschine Google Scholar.“ Anwälte stellten Hancocks Beweise in Frage und argumentierten, dass sie möglicherweise durch künstliche Intelligenz generiert wurden. Falsche Inhalte beeinträchtigten ernsthaft die Glaubwürdigkeit der Aussage.
Darüber hinaus wiesen Anwälte darauf hin, dass Hancocks Aussage die erforderliche Forschungsmethodik und analytische Logik vermisse, was die Glaubwürdigkeit der gesamten Aussage in Frage stelle. Sie argumentierten, dass im Falle einer Fälschung von Teilen der Aussage die gesamte Aussage als unzuverlässig anzusehen sei und forderten das Gericht auf, sie von der Prüfung auszuschließen.
Der Vorfall löste eine breite Diskussion über akademische Integrität und den Einsatz künstlicher Intelligenz im Rechtsbereich aus. Der Fall befindet sich derzeit noch in einem weiteren Verfahren und die endgültige Entscheidung des Gerichts steht noch nicht fest.
Highlight:
Professor Hancock wird vorgeworfen, in seinen Beweisen eine nicht existierende Studie zitiert zu haben, die möglicherweise durch KI erstellt wurde.
Die Aussage des Generalstaatsanwalts von Minnesota, Ellison, wurde in Frage gestellt, was Auswirkungen auf die Unterstützung des politischen Deepfake-Video-Gesetzes hat.
Die Anwälte der Kläger forderten das Gericht auf, Hancocks Aussage auszuschließen, mit der Begründung, dass ihre allgemeine Glaubwürdigkeit ernsthaft beeinträchtigt sei.
Dieser Vorfall verdeutlicht die ethischen und rechtlichen Herausforderungen, die die rasante Entwicklung der Technologie der künstlichen Intelligenz mit sich bringt, und erinnert uns daran, wachsam hinsichtlich der Zuverlässigkeit von Informationsquellen zu bleiben. Die weitere Entwicklung des Falles verdient weitere Aufmerksamkeit, und ihre Ergebnisse werden tiefgreifende Auswirkungen auf die Anwendung künstlicher Intelligenz im Rechtsbereich haben.