Der frühere Trump-Anwalt Michael Cohen gab kürzlich zu, in seinen Gerichtsdokumenten falsche, durch KI generierte Fälle angeführt zu haben. Er verwechselte Googles Bard mit einer „Supersuchmaschine“ und zitierte KI-generierte Inhalte ohne Überprüfung, wenn er Bard für juristische Recherchen nutzte. Cohen behauptete, dass er das Gericht nicht absichtlich in die Irre geführt habe, ihm aber das Verständnis der KI-Rechtstechnologie fehlte. Bei diesem Vorfall handelt es sich nicht um einen Einzelfall. Ähnliche KI-generierte falsche Verweise sind bereits in Gerichtsdokumenten aufgetaucht, was weitreichende Kontroversen auslöste und die Risiken und Herausforderungen der Anwendung von KI-Technologie im Rechtsbereich verdeutlichte.
Der frühere Trump-Anwalt Michael Cohen gab in Gerichtsdokumenten zu, falsche, von der KI generierte Fälle angeführt zu haben, in denen Googles Bard für Rechtsrecherchen genutzt und Google fälschlicherweise als „Supersuchmaschine“ behandelt wurde. Cohen behauptete, er habe das Gericht nicht vorsätzlich in die Irre geführt und verfüge über unzureichende Kenntnisse der KI-Rechtstechnologie. Ähnliche KI-generierte falsche Zitate tauchten bereits in Gerichtsdokumenten auf und sorgten für einige Kontroversen.
Der Cohen-Vorfall erinnert uns erneut daran, dass wir bei der Anwendung von KI-Technologie im Rechtsbereich deren Zuverlässigkeit und Genauigkeit sorgfältig bewerten und die Ethik und Überwachung von KI-Tools stärken müssen. Das Vertrauen in die KI-Technologie muss auf einem umfassenden Verständnis ihrer Grenzen basieren, um schwerwiegende Folgen durch Missbrauch zu vermeiden. In Zukunft wird es ein wichtiges Thema sein, wie man KI besser zur Unterstützung der Rechtsrecherche einsetzen und gleichzeitig mögliche Risiken vermeiden kann.