近日,AI聊天机器人平台Character AI因一起与青少年自杀相关的案件卷入法律纠纷,引发广泛关注。プラットフォームは、その発言は米国の最初の修正によって保護されていると主張し、事件に対する責任を負うことを拒否して、訴訟を撤回する動議を提出した。この事件は、AIチャットボットの潜在的なリスクを強調するだけでなく、AIの技術責任と監督に関する広範な議論を引き起こします。この記事では、キャラクターAIが直面する法的ジレンマとその背後にある深い問題を詳細に分析します。
最近、AIチャットボットプラットフォームのキャラクターAIは、ティーンエイジャーの自殺を伴うケースをめぐる法的ジレンマにありました。このプラットフォームは、フロリダ州中央地方裁判所で訴訟を撤回する申し立てを提出し、修正第1条の下では、関連する訴訟の責任を負わないべきではないと主張した。
この訴訟は、10月にキャラクターAIに対してミーガンガルシアが提起した訴訟によって引き起こされました。ガルシアの息子、14歳のスウェル・セッツァーIIIは、キャラクターAIのチャットボットダニーを使用した後、強い感情的依存を形成しました。ガルシアは、息子がこのチャットボットと頻繁に通信し、実際の生活から徐々に疎外されたと言いました。
スチュワートの死後、キャラクターAIは、チャットコンテンツの監視と介入を強化するために、いくつかのセキュリティ機能を導入することを約束しました。ガルシアは、会社がストーリーや個人的な逸話を伝えることを禁止するなど、より厳しい措置を講じることを望んでいます。
キャラクターAIは、撤退の動議で、修正第1条がいわゆる有害な発言に対する責任からメディアとハイテク企業が保護されており、この権利がユーザーのAIチャットボットとのやり取りにも当てはまることを強調していると述べました。この動きは、訴訟が成功した場合、ユーザーの言論の自由を侵害することを強調しました。
この動きは、コミュニケーション倫理法の第230条に基づいてキャラクターAIが保護されているかどうかについては言及していません。法律は、ソーシャルメディアやその他のオンラインプラットフォームがユーザーが生成したコンテンツに対して責任を負うことから保護することを目的としていますが、AIに生成されたコンテンツがこの法律によって保護されているかどうかについては、まだ論争があります。
さらに、キャラクターAIの法務チームは、ガルシアの本当の意図は、キャラクターAIを「シャットダウン」し、同様の技術に関する法律を促進することであると指摘しました。同社は、訴訟が勝った場合、キャラクターAIと新たな生成AI業界全体に「冷静な効果」があると考えています。
この訴訟に加えて、キャラクターAIは、ティーンエイジャーのAIコンテンツの使用に関連するいくつかの法的訴訟にも直面しています。その他の申し立てには、9歳の子供に「過度のコンテンツ」を示すキャラクターAIが含まれ、17歳のユーザーによる自傷行為を導くことが含まれます。
テキサス州司法長官のケン・パクストンは、12月に、州の子供のオンラインプライバシーとセキュリティ法の違反の疑いを引用して、キャラクターAIおよび14の他のハイテク企業の調査を発表しました。
キャラクターAIは2021年にAIコンパニオンアプリケーションの一部として設立されましたが、この分野は活況を呈していますが、関連するメンタルヘルスの影響は完全には研究されていません。同社が複数のセキュリティツールとティーン固有のAIモデルを立ち上げるにつれて、キャラクターAIは、プラットフォームのセキュリティとコンテンツ管理の改善を続けると述べています。
ポイント:
キャラクターAIは10代の自殺事件で起訴され、修正第1条によって保護されていると言って訴訟を撤回するよう申請されました。
ガルシアの息子は、AIチャットボットに依存しているため、実際の生活から疎外されており、より多くのセキュリティ対策を要求する訴訟を起こしました。
キャラクターAIは、10代のユーザーに関連する複数の法的訴訟やテキサス州の調査にも直面しています。
キャラクターのケースは、AIの倫理と規制に関する人々の深い考えを引き起こしました。この訴訟の最終結果は、AI業界の発展にも大きな影響を与えるでしょう。