トランプ大統領の元弁護士マイケル・コーエン氏は最近、法廷文書の中でAIによって生み出された虚偽の訴訟を引用したことを認めた。同氏はGoogleのBardを「スーパー検索エンジン」と誤解し、法律調査にBardを使用する際に検証なしでAIが生成したコンテンツを引用した。コーエン被告は、法廷を意図的に誤解させたわけではないが、AIの法的技術についての理解が不足していたと主張した。この事件は孤立した事件ではなく、これまでにも同様の AI による虚偽の言及が法廷文書に登場し、広範な論争を引き起こし、法務分野での AI テクノロジーの適用のリスクと課題が浮き彫りになっています。
トランプ大統領の元弁護士マイケル・コーエン氏は法廷文書で、GoogleのBardを「スーパー検索エンジン」と誤って扱いながら法律調査を行うために利用したという、AIが生成した虚偽の事例を挙げたことを認めた。コーエン氏は、法廷を意図的に誤解させたわけではなく、AIの法的技術についての理解が不十分だったと主張した。 AIが生成した同様の虚偽の引用文が以前にも法廷文書に登場し、物議を醸したことがある。
コーエン事件は、AI技術を法律分野に適用する際には、その信頼性と正確性を慎重に評価し、AIツールの倫理と監督を強化する必要があることを改めて思い出させた。 AI テクノロジーへの依存は、誤用によって引き起こされる重大な結果を回避するために、その限界を十分に理解した上で行う必要があります。 将来的には、潜在的なリスクを回避しながら、法律研究を支援するために AI をどのように活用するかが重要なテーマになります。