最近、カリフォルニア州上院議員のスティーブ・パディージャは、SB243法案を導入して、子どもたちを人工知能チャットボットへの潜在的な害から保護しました。法案の中心にあるAI企業は、子どもが中毒、孤立、誤解を招くようにするために、チャットボットが人間ではなくAIであることを未成年者に定期的に思い出させる必要があります。この法案はまた、「中毒相互作用モード」を制限しており、ティーンエイジャーの自殺念慮のテスト数やチャットボットの回数など、カリフォルニア州保健保健サービス省に年次報告書を提出することを企業に要求しています。この動きは、キャラクターに対する虚偽の死の訴訟の文脈でもたらされます。 法案の導入は、AIチャットボットの安全に関する社会の懸念の高まりを反映しています。
最近、カリフォルニアは、人工知能チャットボットの潜在的なリスクから子供を保護するために、SB243と呼ばれる法案を導入しました。カリフォルニア州上院議員のスティーブ・パディージャによって導入されたこの法案は、主にAI企業に、チャットボットが実際には人間ではなく人工知能であることを未成年者に定期的に思い出させることを要求しています。
法案の中心的な目的は、子供たちがチャットボットを使用する際に中毒、孤立、誤解を招くのを防ぐことです。 AI企業に定期的なリマインダーを発行するよう要求することに加えて、法案は企業が「中毒相互作用モデル」の使用を制限し、カリフォルニア州ヘルスケアサービス省に年次報告書を提出することを要求しています。これらのレポートには、ティーンエイジャーの自殺念慮の検出数と、チャットボットがこのトピックに言及する回数を含める必要があります。さらに、AI企業は、チャットボットが特定の子供に適していない可能性があることをユーザーに通知する必要があります。
法案の背景は、Charture.aiに対する親の虚偽の死亡訴訟と密接に関連しています。訴訟では、同社のカスタマイズされたAIチャットボットは「非常に危険」であると主張しています。なぜなら、子供たちは最終的にチャットボットとの長いやり取りの後に自殺することを選んだからです。ティーンエイジャーに「有害資料」を送信したと会社が非難する別の訴訟がありました。この目的のために、Charition.aiは、ティーンエイジャーの安全性を確保するために「敏感または示唆的な」コンテンツをブロックするように設計された、親の制御機能を開発し、新しいAIモデルを起動していることを発表しました。
「私たちの子供たちは、ハイテク企業で実験している白人マウスではなく、メンタルヘルスの犠牲を払ってテストすることはできません。チャットボットユーザーが開発者を使用しないようにする必要があります中毒性のある略奪的なアプローチ。
キーポイント:
カリフォルニア州の新しい法案では、AI企業は、チャットボットが人間ではなく人工知能であることを子供たちに思い出させることを要求しています。
AI企業は、子どもの自殺念慮とチャットの頻度を含む、政府に報告書を提出する必要があります。
bill法案は、子どもの精神的健康を保護し、「中毒相互作用パターン」を制限することを目指しています。
SB243 ACTの導入は、AIチャットボットの監督の強化を示しており、AIテクノロジーの将来の発展が倫理とセキュリティにより多くの注意を払うことを示しています。 AIテクノロジーの開発と子供の安全のバランスを取る方法は、将来的に注意を払い、解決する必要がある重要な問題です。