최근 캘리포니아 상원 의원 Steve Padilla는 인공 지능 챗봇에 어린이들이 잠재적 인 피해를 입지 않도록 SB243 법안을 도입했습니다. 이 법안의 중심에 AI 회사는 미성년자에게 챗봇이 인간이 아니라 AI라는 사실을 정기적으로 상기 시켜서 아이들이 중독되고 고립되고 오해의 소지가되지 않도록해야합니다. 이 법안은 또한 "중독 상호 작용 모드"를 제한하고 회사가 십대 자살 생각에 대한 테스트 수와 챗봇이 주제를 언급 한 시간을 포함하여 캘리포니아 보건 보건 서비스국에 연례 보고서를 제출하도록 요구합니다. 이 움직임은 캐릭터에 대한 허위 사망 소송의 맥락에서 온다. 이 법안의 도입은 AI 챗봇의 안보에 대한 사회의 점점 더 많은 관심을 반영합니다.
최근 캘리포니아는 인공 지능 챗봇의 잠재적 위험으로부터 어린이를 보호하기 위해 SB243이라는 법안을 도입했습니다. 캘리포니아 상원 의원 Steve Padilla가 소개 한이 법안은 주로 AI 회사가 챗봇이 실제로 인간이 아니라 실제로 인공 지능임을 미성년자에게 상기시켜야합니다.
이 법안의 중심 목적은 챗봇을 사용할 때 아이들이 중독, 고립 및 오해의 소지가 발생하지 않도록하는 것입니다. 이 법안은 AI 회사가 정기적 인 알림을 발행하도록 요구하는 것 외에도 회사를 "중독 상호 작용 모델"을 사용하는 것을 제한하고 캘리포니아 보건 의료 서비스국에 연례 보고서를 제출해야합니다. 이 보고서에는 십대 자살 아이디어의 탐지 수가 포함되어야하며 챗봇 이이 주제를 언급 한 횟수가 포함되어야합니다. 또한 AI 회사는 챗봇이 특정 어린이에게 적합하지 않을 수 있음을 사용자에게 알려야합니다.
법안의 배경은 캐릭터에 대한 부모의 거짓 사망 소송과 밀접한 관련이 있습니다. 이 소송은 회사의 맞춤형 AI 챗봇이 "매우 위험하다"고 주장했다. 왜냐하면 자녀는 챗봇과의 긴 상호 작용 후 자녀가 자살을 선택했기 때문이다. 회사가 청소년들에게 "유해한 자료"를 보내겠다고 비난하는 또 다른 소송이있었습니다. 이를 위해 Charac
Padilla는 기자 회견에서 "우리 아이들은 기술 회사를 실험하는 백인 마우스가 아니며 정신 건강 비용으로 테스트 할 수 없다"고 말했다 중독성과 약탈 적 접근은 주와 연방 정부가 소셜 미디어 플랫폼의 보안에 점차 초점을 맞추면서 의원의 다음 초점이 될 것으로 예상됩니다.
핵심 사항 :
캘리포니아의 새로운 법안은 AI 회사가 어린이들에게 챗봇이 인간보다는 인공 지능임을 상기시켜야합니다.
AI 회사는 어린이의 자살 아이디어 및 채팅 빈도와 관련된 보고서를 정부에 제출해야합니다.
이 법안은 어린이의 정신 건강을 보호하고 "중독 상호 작용 패턴"을 제한하는 것을 목표로합니다.
SB243 법의 도입은 AI 챗봇의 감독 강화를 의미하며, AI 기술의 미래 개발이 윤리와 안보에 더 많은 관심을 기울일 것임을 나타냅니다. AI 기술의 개발과 아동의 안전 균형을 맞추는 방법은 미래에주의를 기울이고 해결 해야하는 중요한 문제가 될 것입니다.