Charakter AI sieht sich gegen Klagen gegenüber seinem Chatbot gegenüber, was einen 14-Jährigen dazu veranlasst hat, Selbstmord zu begehen. Die Eltern des Klägers beschuldigten die Plattform, seinen KI -Chatbot „Dany“ nicht effektiv zu regulieren, was seinen Sohn von der virtuellen Welt süchtig wurde und schließlich Selbstmord begangen hat. Character AI widerlegte, dass seine Plattform durch die erste Änderung geschützt ist, und glaubte, dass der Kläger beabsichtigt, die Plattform zu schließen und die relevante Gesetzgebung zu fördern, was sich negativ auf die gesamte generative KI -Branche auswirkt.
Charakter AI, eine Plattform, auf der Benutzer Rollenspiele mit AI-Chatbots spielen, hat kürzlich eine Klage eingereicht, die von einem jugendlichen Elternteil im US-Bezirksgericht von Central District, Florida, eingereicht wurde. Die Eltern Megan Garcia beschuldigte die Charakter AI seiner Technologie, die ihrem 14-jährigen Sohn Sewell Setzer III verletzte.
Nach dem Tod von Setzzer sagte Character AI, es würde eine Reihe von Sicherheitsfunktionen einführen, um die Erkennungs- und Interventionsfunktionen in Chat -Inhalten zu verbessern, die gegen die Nutzungsbedingungen verstoßen. Garcia hofft jedoch, dass die Plattform in der Lage sein wird, strengere Beschränkungen aufzuerlegen, z. B. Chatbots, Geschichten zu erzählen und persönliche Anekdoten zu teilen.
In seinem Ablehnungantrag argumentierte das Rechtsteam von Charakter AI, dass die Plattform durch die erste Änderung geschützt sei, und behauptete, dass die Rederechts der Benutzer auf die Meinungsfreiheit verletzt werden werde. In juristischen Dokumenten heißt es, dass dieser Fall zwar einen Dialog mit dem generierten A-generierten Dialog beinhaltet, dies jedoch nicht wesentlich von früheren Fällen unterscheidet, in denen Medien- und Technologieunternehmen beteiligt sind.
Es ist erwähnenswert, dass die Verteidigung von Charakter AI nicht die Anwendbarkeit von Abschnitt 230 des Kommunikationsethikgesetzes beinhaltet, das Schutz für soziale Medien und andere Online-Plattformen von Haftung für Inhalte von Drittanbietern bietet. Obwohl die Verfasser der Gesetzesvorlage implizierten, dass die Bestimmung keine Inhalte von AI-generierten A-generierten schützten, ist dieses Problem nicht schlüssig.
Anwälte von Charakter AI sagten auch, dass Garcias wahre Absicht darin bestand, die Plattform zu „schließen“ und Gesetze für ähnliche Technologien zu fördern. Wenn die Klage erfolgreich ist, wird sie einen "erschreckenden Effekt" auf die Charakter -KI und die gesamte aufstrebende generative KI -Branche haben.
Derzeit steht Character AI mit mehreren Klagen aus, die sich darauf konzentrieren, wie Minderjährige mit Inhalten interagieren, die auf ihrer Plattform generiert werden, einschließlich eines Fall alte Benutzer, die sich selbst schaden.
Der Generalstaatsanwalt von Texas, Ken Paxton, kündigte außerdem eine Untersuchung der Charakter -KI und 14 weiteren Technologieunternehmen an, in der sie beschuldigt wurden, gegen staatliche Gesetze zum Schutz der Online -Privatsphäre und -sicherheit von Kindern verstoßen zu haben. Charakter KI ist Teil der schnell wachsenden AI -Begleitanwendungsbranche, und die Auswirkungen der psychischen Gesundheit in diesem Bereich wurden nicht vollständig untersucht.
Trotz verschiedener Herausforderungen führt Character AI ständig neue Sicherheitstools ein und unternimmt Schritte zum Schutz der minderjährigen Benutzer, z.
Das Endergebnis dieses Falls wird tiefgreifende Auswirkungen auf die zukünftige Entwicklung der generativen KI -Branche haben und den dringenden Bedarf an AI -Technologieethik und Sicherheitsüberwachung hervorheben. Alle Parteien müssen zusammenarbeiten, um ein Gleichgewicht zwischen dem technologischen Fortschritt und der sozialen Verantwortung zu finden.