近日,加州參議員史蒂夫·帕迪拉提出SB243法案,旨在保護兒童免受人工智能聊天機器人潛在危害。該法案的核心是要求AI公司定期提醒未成年人,聊天機器人是AI而非人類,以防止兒童沉迷、孤立和誤導。法案還限制“成癮性互動模式”,並要求公司每年向加州衛生保健服務部提交報告,內容包括青少年自殺意念的檢測次數及聊天機器人提及此話題的次數。此舉的背景是針對Character.AI公司的一宗錯誤死亡訴訟,該訴訟指控其聊天機器人導致兒童自殺。 法案的提出反映了社會對AI聊天機器人安全性的日益關注。
近日,加利福尼亞州提出了一項名為SB243的法案,旨在保護兒童免受人工智能聊天機器人潛在風險的影響。這項法案由加州參議員史蒂夫・帕迪拉(Steve Padilla)提出,主要要求AI 公司定期提醒未成年人,聊天機器人實際上是人工智能,而不是人類。
法案的核心目的在於防止兒童在使用聊天機器人時遭遇成癮、孤立和誤導等問題。除了要求AI 公司定期發出提醒外,該法案還限制公司使用“成癮性互動模式”,並要求它們每年向加州衛生保健服務部提交報告。這些報告需要包含關於青少年用戶自殺意念的檢測次數,以及聊天機器人提及此話題的次數。此外,AI 公司還需告知用戶其聊天機器人可能不適合某些兒童使用。
這一法案的提出背景與一宗父母針對Character.AI 公司的錯誤死亡訴訟密切相關。該訴訟稱,這家公司的定制AI 聊天機器人存在“極度危險”,因為其子女在與聊天機器人長時間互動後,最終選擇了自殺。另有一起訴訟指控該公司向青少年發送“有害材料”。為此,Character.AI 公司宣布正在研發家長控制功能,並推出新型AI 模型,旨在屏蔽“敏感或暗示性” 的內容,以保障青少年的安全。
帕迪拉在新聞發布會上表示:“我們的孩子不是科技公司實驗的白老鼠,不能以他們的心理健康為代價進行試驗。我們需要為聊天機器人用戶提供常識性的保護,防止開發者使用他們明知是成癮性和掠奪性的方法。” 隨著各州和聯邦政府日益關注社交媒體平台的安全性,AI 聊天機器人有望成為立法者下一個關注的焦點。
劃重點:
加州新法案要求AI 公司提醒兒童,聊天機器人是人工智能而非人類。
AI 公司需向政府提交報告,涉及兒童自殺意念及聊天話題頻率。
法案旨在保護兒童心理健康,限制“成癮性互動模式”。
SB243法案的出台標誌著對AI聊天機器人監管的加強,也預示著未來AI技術發展將更加註重倫理和安全。 如何平衡AI技術發展與兒童安全,將是未來需要持續關注和解決的重要課題。