Récemment, le sénateur de Californie, Steve Padilla, a présenté le projet de loi SB243 pour protéger les enfants contre les dommages potentiels aux chatbots de l'intelligence artificielle. Au cœur du projet de loi, les sociétés d'IA sont tenues de rappeler régulièrement aux mineurs que les chatbots sont l'IA, pas les humains, pour empêcher les enfants de devenir dépendants, isolés et trompeurs. Le projet de loi limite également le «mode d'interaction de la toxicomanie» et oblige les entreprises à soumettre des rapports annuels au California Department of Health and Health Services, y compris le nombre de tests pour les idées suicides des adolescents et le nombre de chatbots de fois mentionnent le sujet. Cette décision intervient dans le contexte d'un faux procès contre la mort contre le caractère.ai, qui a accusé son chatbot de suicide chez les enfants. L'introduction du projet de loi reflète la préoccupation croissante de la société sur la sécurité des chatbots d'IA.
Récemment, la Californie a présenté un projet de loi appelé SB243 pour protéger les enfants des risques potentiels des chatbots de l'intelligence artificielle. Le projet de loi, présenté par le sénateur de Californie, Steve Padilla, oblige principalement les sociétés à IA à rappeler régulièrement aux mineurs que les chatbots sont en fait une intelligence artificielle, pas des humains.
Le but central du projet de loi est d'empêcher les enfants de rencontrer la dépendance, l'isolement et les tromperies lors de l'utilisation de chatbots. En plus d'obliger les entreprises d'IA à émettre des rappels réguliers, le projet de loi empêche les entreprises d'utiliser des «modèles d'interaction de toxicomanie» et les oblige à soumettre des rapports annuels au California Department of Health Care Services. Ces rapports doivent inclure le nombre de détections des idées suicidaires des adolescents, et le nombre de chatbots de fois mentionne ce sujet. De plus, les entreprises d'IA doivent informer les utilisateurs que leurs chatbots peuvent ne pas convenir à certains enfants.
Le contexte du projet de loi est étroitement lié à la poursuite de la fausse mort d'un parent contre le caractère. Le procès affirme que les chatbots d'IA personnalisés de l'entreprise sont "extrêmement dangereux" car leurs enfants ont finalement choisi de se suicider après de longues interactions avec les chatbots. Il y a eu un autre procès accusant la société d'avoir envoyé des "matériaux nocifs" aux adolescents. À cette fin, le personnage.ai a annoncé qu'il développe des fonctionnalités de contrôle parental et lance un nouveau modèle d'IA conçu pour bloquer le contenu "sensible ou suggestif" pour assurer la sécurité des adolescents.
"Nos enfants ne sont pas des souris blanches qui expérimentent les entreprises technologiques et ne peuvent pas être testées au prix de leur santé mentale. Nous devons fournir une protection de bon sens aux utilisateurs de chatbot pour empêcher les développeurs de les utiliser", a déclaré Padilla lors d'une conférence de presse. Approches addictives et prédatrices. »Comme les États et les gouvernements fédéraux se concentrent de plus en plus sur la sécurité des plateformes de médias sociaux, les chatbots de l'IA devraient être le prochain objectif des législateurs.
Points clés:
Le nouveau projet de loi de la Californie exige que les entreprises d'IA rappellent aux enfants que les chatbots sont l'intelligence artificielle plutôt que les humains.
Les entreprises de l'IA doivent soumettre des rapports au gouvernement, impliquant les idées de suicide des enfants et la fréquence de chat.
Le projet de loi vise à protéger la santé mentale des enfants et à limiter les «modèles d'interaction de la toxicomanie».
L'introduction de la loi SB243 marque le renforcement de la supervision des chatbots d'IA et indique également que le développement futur de la technologie de l'IA accordera plus d'attention à l'éthique et à la sécurité. Comment équilibrer le développement de la technologie de l'IA avec la sécurité des enfants sera un problème important qui doit être prêté attention et résolu à l'avenir.