Recientemente, el senador de California Steve Padilla presentó el proyecto de ley SB243 para proteger a los niños de daños potenciales a los chatbots de inteligencia artificial. En el corazón del proyecto de ley, las compañías de IA deben recordar regularmente a los menores que los chatbots son IA, no humanos, para evitar que los niños se vuelvan adictos, aislados y engañosos. El proyecto de ley también limita el "modo de interacción de adicciones" y requiere que las empresas presenten informes anuales al Departamento de Servicios de Salud y Salud de California, incluida la cantidad de pruebas para la ideación suicida de los adolescentes y la cantidad de veces que los chatbots mencionan el tema. La medida viene en el contexto de una falsa demanda por muerte contra el carácter. La introducción del proyecto de ley refleja la creciente preocupación de la sociedad sobre la seguridad de los chatbots de IA.
Recientemente, California presentó un proyecto de ley llamado SB243 para proteger a los niños de los riesgos potenciales de los chatbots de inteligencia artificial. El proyecto de ley, presentado por el senador de California Steve Padilla, requiere principalmente que las compañías de IA recuerden regularmente a los menores que los chatbots son realmente inteligencia artificial, no humanos.
El propósito central del proyecto de ley es evitar que los niños se encuentren con adicción, aislamiento y engañoso al usar chatbots. Además de exigir a las empresas de IA que emitan recordatorios regulares, el proyecto de ley restringe a las empresas de usar "modelos de interacción de adicciones" y requiere que presenten informes anuales al Departamento de Servicios de Atención Médica de California. Estos informes deben incluir el número de detecciones de las ideaciones suicidas de los adolescentes, y la cantidad de chatbots de veces mencionan este tema. Además, las compañías de IA deben informar a los usuarios que sus chatbots pueden no ser adecuados para ciertos niños.
Los antecedentes del proyecto de ley están estrechamente relacionados con la falsa demanda por muerte de un padre contra el carácter. La demanda afirma que los chatbots de IA personalizados de la compañía son "extremadamente peligrosos" porque sus hijos finalmente optaron por suicidarse después de largas interacciones con los chatbots. Hubo otra demanda acusando a la compañía de enviar "materiales dañinos" a los adolescentes. Con este fin, el personaje. AI anunció que está desarrollando características de control de los padres y lanzar un nuevo modelo de IA diseñado para bloquear el contenido "sensible o sugerente" para garantizar la seguridad de los adolescentes.
"Nuestros niños no son ratones blancos que experimentan con empresas tecnológicas y no pueden ser probados a costa de su salud mental. Necesitamos proporcionar protección de sentido común para que los usuarios de chatbot los usen", dijo Padilla en una conferencia de prensa. Enfoques adictivos y depredadores ". A medida que los estados y los gobiernos federales se centran cada vez más en la seguridad de las plataformas de redes sociales, se espera que los chatbots de IA sean el próximo foco de los legisladores.
Puntos clave:
El nuevo proyecto de ley de California requiere que las compañías de IA recuerden a los niños que los chatbots son inteligencia artificial en lugar de humanos.
Las empresas de IA deben presentar informes al gobierno, que involucra la ideación suicida de los niños y la frecuencia de chat.
El proyecto de ley tiene como objetivo proteger la salud mental de los niños y limitar los "patrones de interacción de adicciones".
La introducción de la Ley SB243 marca el fortalecimiento de la supervisión de los chatbots de IA, y también indica que el desarrollo futuro de la tecnología de IA prestará más atención a la ética y la seguridad. Cómo equilibrar el desarrollo de la tecnología de IA con la seguridad de los niños será un tema importante que debe prestarse y resolverse en el futuro.