Recentemente, o senador da Califórnia, Steve Padilla, apresentou o projeto de lei do SB243 para proteger as crianças de possíveis danos a chatbots de inteligência artificial. No centro do projeto, as empresas de IA precisam lembrar regularmente aos menores que os chatbots são IA, não humanos, para impedir que as crianças se tornem viciadas, isoladas e enganosas. O projeto de lei também limita o "modo de interação de dependência" e exige que as empresas enviem relatórios anuais ao Departamento de Serviços de Saúde e Saúde da Califórnia, incluindo o número de testes para a ideação suicida dos adolescentes e o número de vezes que os chatbots mencionam o tópico. A medida vem no contexto de uma ação falsa de morte contra o caráter. A introdução do projeto reflete a crescente preocupação da sociedade sobre a segurança dos chatbots da IA.
Recentemente, a Califórnia introduziu um projeto de lei chamado SB243 para proteger as crianças dos riscos potenciais de chatbots de inteligência artificial. O projeto, introduzido pelo senador da Califórnia, Steve Padilla, exige principalmente que as empresas de IA lembrem regularmente menores de que os chatbots são na verdade inteligência artificial, não humanos.
O objetivo central do projeto é impedir que as crianças encontrem dependência, isolamento e enganosos ao usar chatbots. Além de exigir que as empresas de IA emitam lembretes regulares, o projeto restringe as empresas de usar "modelos de interação de dependência" e exige que eles enviem relatórios anuais ao Departamento de Serviços de Cuidados de Saúde da Califórnia. Esses relatórios precisam incluir o número de detecções das ideias suicidas dos adolescentes e o número de vezes que os chatbots mencionam esse tópico. Além disso, as empresas de IA precisam informar os usuários que seus chatbots podem não ser adequados para certas crianças.
Os antecedentes do projeto estão intimamente relacionados ao processo de morte falsa dos pais contra o caráter. O processo afirma que os chatbots da AI personalizados da empresa são "extremamente perigosos" porque seus filhos acabaram por se suicidar após longas interações com os chatbots. Havia outro processo acusando a empresa de enviar "materiais nocivos" para os adolescentes. Para esse fim, a Caracter.ai anunciou que está desenvolvendo recursos de controle dos pais e lançando um novo modelo de IA projetado para bloquear conteúdo "sensível ou sugestivo" para garantir a segurança dos adolescentes.
"Nossos filhos não são ratos brancos experimentando empresas de tecnologia e não podem ser testadas ao custo de sua saúde mental. Precisamos fornecer proteção ao senso comum para os usuários de chatbot para impedir que os desenvolvedores os usam", disse Padilla em entrevista coletiva Abordagens viciantes e predatórias.
Pontos -chave:
O novo projeto de lei da Califórnia exige que as empresas de IA lembrem às crianças que os chatbots são inteligência artificial e não os seres humanos.
As empresas de IA precisam enviar relatórios ao governo, envolvendo a ideação de suicídio e a frequência de bate -papo das crianças.
O projeto pretende proteger a saúde mental das crianças e limitar "padrões de interação de dependência".
A introdução da Lei SB243 marca o fortalecimento da supervisão dos chatbots da IA e também indica que o desenvolvimento futuro da tecnologia de IA prestará mais atenção à ética e à segurança. Como equilibrar o desenvolvimento da tecnologia de IA com a segurança das crianças será uma questão importante que precisa receber atenção e resolvida no futuro.