Récemment, le personnage de la plate-forme AI Chatbot AI a été impliqué dans un différend juridique sur une affaire liée au suicide des adolescents, qui a attiré une attention généralisée. La plate-forme a affirmé que ses remarques avaient été protégées par le premier amendement des États-Unis et ont déposé une requête en retirer le procès, refusant de porter la responsabilité de l'incident. Cet incident met non seulement les risques potentiels des chatbots d'IA, mais déclenche également de vastes discussions sur les responsabilités technologiques de l'IA et la supervision. Cet article analysera en détail le dilemme juridique confronté par le caractère AI et les problèmes profonds derrière.
Récemment, le personnage de la plate-forme AI Chatbot a été dans un dilemme juridique sur une affaire impliquant un suicide d'adolescent. La plate-forme a déposé une requête en retrait de la poursuite devant le tribunal central de district de Floride, affirmant qu'en vertu du premier amendement, ils ne devraient pas être responsables des poursuites pertinentes.
L'affaire a été causée par un procès intenté par Megan Garcia contre le caractère AI en octobre. Le fils de Garcia, Sewell Setzer III, 14 ans, a formé une forte dépendance émotionnelle après avoir utilisé le chatbot de l'AI, Dany, ce qui a finalement conduit au tragique. Garcia a déclaré que son fils communiquait fréquemment avec ce chatbot et s'était progressivement éloigné de la vraie vie.
Après la mort de Stewart, le caractère AI a promis d'introduire plusieurs fonctionnalités de sécurité pour améliorer la surveillance et l'intervention dans le contenu du chat. Garcia espère que la société prendra des mesures plus strictes, telles que l'interdiction des chatbots de raconter des histoires ou des anecdotes personnelles.
Le caractère AI a noté dans sa motion de retrait que le premier amendement protégeait les médias et les entreprises technologiques contre la responsabilité des remarques dites nuisibles, soulignant que ce droit s'applique également aux interactions des utilisateurs avec les chatbots d'IA. Le mouvement a souligné que si le procès est réussi, il portera sur la liberté d'expression de l'utilisateur.
La motion ne mentionne pas si l'IA du caractère est protégé en vertu de l'article 230 de la loi sur l'éthique des communications. La loi vise à protéger les médias sociaux et d'autres plateformes en ligne contre le contenu généré par les utilisateurs, mais il y a toujours une controverse quant à savoir si le contenu généré par l'IA est protégé par cette loi.
En outre, l’équipe juridique du caractère AI a souligné que l’intention réelle de Garcia était de «fermer» le caractère d’IA et de promouvoir une législation sur des technologies similaires. La société estime que si le procès gagne, il aura un "effet effrayant" sur l'IA du caractère et l'ensemble de l'industrie de l'IA génératrice émergente.
En plus de ce procès, le caractère IA est également confronté à plusieurs poursuites judiciaires liées à l'utilisation du contenu de l'IA pour les adolescents. D'autres allégations incluent le caractère IA montrant un «contenu excessif» aux enfants de 9 ans et guidant les comportements d'automutilation par les utilisateurs de 17 ans.
Le procureur général du Texas, Ken Paxton, a annoncé en décembre une enquête sur le caractère AI et 14 autres sociétés technologiques, citant des violations présumées des lois sur la confidentialité et la sécurité en ligne des enfants de l'État.
Le caractère IA a été fondé en 2021 dans le cadre des applications compagnons de l'IA, et bien que ce domaine soit en plein essor, les impacts pertinents en matière de santé mentale n'ont pas été entièrement étudiés. Alors que la société lance plusieurs outils de sécurité et les modèles d'IA spécifiques aux adolescents, le caractère AI dit qu'il continuera d'améliorer la sécurité et la gestion du contenu sur sa plate-forme.
Points:
Le caractère AI a été inculpé pour une affaire de suicide chez les adolescents et a demandé à retirer le procès disant qu'il était protégé par le premier amendement.
Le fils de Garcia a été aliéné de la vie réelle en raison de sa dépendance à l'égard des chatbots d'IA et a déposé une plainte pour exiger davantage de mesures de sécurité.
Le caractère AI fait également face à plusieurs poursuites judiciaires liées aux utilisateurs des adolescents, ainsi qu'aux enquêtes au Texas.
Le cas de l'IA a déclenché des pensées profondes des gens sur l'éthique et la réglementation de l'IA. Le résultat final de ce procès aura également un impact profond sur le développement de l'industrie de l'IA.