Kürzlich hat der kalifornische Senator Steve Padilla das SB243 -Gesetz eingeführt, um Kinder vor potenziellen Schäden bis hin zu Chatbots für künstliche Intelligenz zu schützen. Im Zentrum der Gesetzesvorlage müssen KI -Unternehmen regelmäßig Minderjährige daran erinnern, dass Chatbots KI sind und nicht Menschen, um zu verhindern, dass Kinder süchtig werden, isoliert und irreführend werden. Der Gesetzentwurf begrenzt auch den "Sucht -Interaktionsmodus" und verlangt von Unternehmen, Jahresberichte an das kalifornische Ministerium für Gesundheits- und Gesundheitsdienste vorzulegen, einschließlich der Anzahl der Tests für die Selbstmordgedanken von Teenagern und die Häufigkeit, in denen Chatbots das Thema erwähnen. Der Umzug erfolgt im Zusammenhang mit einer falschen Todesklage gegen Charakter.ai, die seinen Chatbot des Selbstmordes bei Kindern beschuldigte. Die Einführung des Gesetzes spiegelt das wachsende Anliegen der Gesellschaft zur Sicherheit von AI -Chatbots wider.
Kürzlich hat Kalifornien eine Gesetzesvorlage mit dem Namen SB243 eingeführt, um Kinder vor den potenziellen Risiken künstlicher Intelligenz -Chatbots zu schützen. Die von dem kalifornischen Senator Steve Padilla eingeführte Gesetzesvorlage erfordert hauptsächlich KI -Unternehmen, um Minderjährige regelmäßig daran zu erinnern, dass Chatbots tatsächlich künstliche Intelligenz sind, nicht Menschen.
Der zentrale Zweck der Gesetzesvorlage besteht darin, zu verhindern, dass Kinder bei der Verwendung von Chatbots auf Sucht, Isolation und irreführende Begegnung stoßen. Die Gesetzesvorlage verpflichtet KI -Unternehmen, dass sie regelmäßige Erinnerungen ausstellen müssen, sondern beschränkt Unternehmen die Verwendung von „Sucht -Interaktionsmodellen“ und verlangt von ihnen, Jahresberichte an das kalifornische Gesundheitsministerium vorzulegen. Diese Berichte müssen die Anzahl der Erkennungen der Selbstmordgedanken von Teenagern und die Häufigkeit von Chatbots dieses Thema enthalten. Darüber hinaus müssen KI -Unternehmen den Benutzern darüber informieren, dass ihre Chatbots für bestimmte Kinder möglicherweise nicht geeignet sind.
Der Hintergrund der Gesetzesvorlage hängt eng mit der falschen Todesklage eines Elternteils gegen Charakter.ai zusammen. Die Klage behauptet, dass die angepassten KI -Chatbots des Unternehmens "äußerst gefährlich" seien, weil ihre Kinder sich schließlich entschieden haben, nach langen Interaktionen mit den Chatbots Selbstmord zu begehen. Es gab eine weitere Klage, in der die Gesellschaft vorgeworfen wurde, "schädliche Materialien" an Teenager zu senden. Zu diesem Zweck kündigte Charakter.ai an, dass es die Steuerungsfunktionen der Eltern entwickelt und ein neues KI -Modell auf den Markt bringt, mit dem "sensible oder suggestive" Inhalte blockiert werden sollen, um die Sicherheit von Teenagern zu gewährleisten.
"Unsere Kinder sind keine weißen Mäuse, die mit Technologieunternehmen experimentieren und nicht auf Kosten ihrer psychischen Gesundheit getestet werden Sucht und räuberische Ansätze. “Da sich die Bundesstaaten und die Bundesregierungen zunehmend auf die Sicherheit von Social -Media -Plattformen konzentrieren, wird erwartet, dass KI -Chatbots der nächste Schwerpunkt der Gesetzgeber sein.
Schlüsselpunkte:
Die neue Rechnung in Kalifornien verlangt von KI -Unternehmen, Kinder daran zu erinnern, dass Chatbots eher künstliche Intelligenz als Menschen sind.
KI -Unternehmen müssen der Regierung Berichte vorlegen, die Selbstmordgedanken und Chat -Häufigkeit von Kindern einbeziehen.
Die Gesetzesvorlage zielt darauf ab, die psychische Gesundheit von Kindern zu schützen und "Sucht -Interaktionsmuster" zu begrenzen.
Die Einführung des SB243 -Gesetzes markiert die Stärkung der Aufsicht von AI -Chatbots und zeigt auch, dass die zukünftige Entwicklung der KI -Technologie Ethik und Sicherheit mehr Aufmerksamkeit schenken wird. Wie man die Entwicklung der KI -Technologie mit der Sicherheit von Kindern in Einklang bringt, wird ein wichtiges Thema sein, das in Zukunft beachtet und gelöst werden muss.