最近、選挙に影響を与えるためのディープフェイクの使用に関するミネソタ州の連邦訴訟で、大きな論争が巻き起こりました。州司法長官が提出した証拠の中には、主要な研究への言及の一部が人工知能によって生成された疑いがあり、法律分野での人工知能の応用に関する広範な議論を引き起こし、正確性と信頼性を確保する方法に関する重要な疑問が生じた。情報の。 Downcodes の編集者は、この事件について詳細な分析を行う予定です。
画像出典注:画像はAIにより生成され、画像認証サービスプロバイダMidjourney
ミネソタ改革者紙によると、同州のキース・エリソン司法長官は、スタンフォード・ソーシャルメディア・ラボの創設所長であるジェフ・ハンコックに関連証拠の提供を求めたという。しかし、ハンコックの宣誓供述書で言及された研究のいくつかは実質的な証拠に欠けており、AIの「幻覚」の可能性を示している。
ハンコック氏の宣誓供述書では、ジャーナル・オブ・インフォメーション・テクノロジー・アンド・ポリティクス誌に掲載された「ディープフェイクビデオが政治的態度と行動に及ぼす影響」と題した2023年の研究結果が引用されている。
しかし、この研究の記録は雑誌やその他の出版物には見つからなかったと報告書は述べています。さらに、宣誓供述書で言及された別の研究「ディープフェイクと真正性の幻想: 誤った情報の受け入れの背後にある認知プロセス」にも実証的根拠が欠けている。
これに対し、ミネソタ州下院議員メアリー・フランソン氏と保守系ユーチューバーのクリストファー・コールズの弁護士は提出書類の中で次のように述べた:「これらの引用には明らかに人工知能(AI)の『幻想』機能の影響があり、コンテンツの少なくとも一部が大規模な人工知能によって生成されたことを示唆している」彼らはさらに、そのような状況は宣誓供述書全体の信頼性に疑問を投げかけており、特にその議論の多くは方法論や分析ロジックの裏付けを欠いているためだと指摘した。
ハンコックはこの事件に反応しなかった。この事件は、法律分野、特に公益や選挙問題における人工知能の応用に関する議論を引き起こし、情報の正確性と信頼性をどのように確保するかが重要なテーマとなっています。
この事件はディープフェイク技術の影響に注目を集めるだけでなく、人工知能に関連する証拠を扱う際の法曹界に新たな考え方を与えることにもなった。情報ソースを効果的に特定し検証する方法は、法律実務において直面する必要がある重要な課題となっています。
この事件は、法律分野で AI テクノロジーを適用することのリスクを明らかにするとともに、AI によって生成されたコンテンツ、特に証拠資料の適用には注意する必要があること、および信頼性を確保するには厳格な審査と検証が必要であることを警告しました。そして情報の信頼性。これは法の公平性と権威を維持するために非常に重要です。