Die kalifornische Staatsversammlung hat kürzlich ein hochkarätiges KI-Sicherheitsgesetz, SB1047, verabschiedet, das darauf abzielt, die Entwicklung und den Einsatz groß angelegter KI-Modelle zu regulieren, was heftige Diskussionen in der Technologie-Community auslöste. Der Kern des Gesetzentwurfs besteht darin, strenge Sicherheitstests für groß angelegte KI-Modelle vorzuschreiben, deren Training mehr als 100 Millionen US-Dollar kostet, und die Einrichtung von Notstoppmechanismen und die rechtzeitige Berichterstattung nach Unfällen zu erfordern. Die Verabschiedung dieses Gesetzes stellt einen wichtigen Schritt in der kalifornischen Sicherheitsverordnung für künstliche Intelligenz dar, und sein Einfluss könnte sich auf das ganze Land und sogar auf die ganze Welt ausbreiten.
Kürzlich haben die kalifornischen Gesetzgeber ein umstrittenes Gesetz zur Sicherheit künstlicher Intelligenz, SB1047, verabschiedet, das nun nur noch einer abschließenden Verfahrensabstimmung bedarf, bevor es dem kalifornischen Gouverneur Gavin Newsom zur Unterzeichnung vorgelegt wird. Die Weiterentwicklung dieses Gesetzentwurfs hat im Silicon Valley heftige Debatten ausgelöst, bei denen Stimmen der Unterstützung und der Opposition miteinander verflochten sind und in den Mittelpunkt aller Aufmerksamkeit gerückt sind.
Hinweis zur Bildquelle: Das Bild wird von KI generiert und vom Dienstanbieter Midjourney autorisiert
Der Senator des US-Bundesstaates Kalifornien, Scott Wiener, stellte den Gesetzentwurf vor und sagte, er sei stolz auf die vielfältige Koalition hinter dem Gesetzentwurf und dass alle davon überzeugt seien, dass Innovation genauso wichtig sei wie Sicherheit. Er glaubt, dass künstliche Intelligenz ein enormes Potenzial hat, die Welt zu verändern, und die Umsetzung dieses Gesetzentwurfs soll sicherstellen, dass dieses Potenzial sicher freigesetzt werden kann.
Die Reaktionen der Technologiegiganten waren gemischt, und auch Elon Musk, CEO von xAI, drückte seine Unterstützung aus. Er wies in den sozialen Medien darauf hin, dass Kalifornien SB1047 verabschieden sollte, um den Missbrauch künstlicher Intelligenz zu verhindern. Er erwähnte, dass er die Regulierung künstlicher Intelligenz seit mehr als 20 Jahren unterstütze und es für notwendig halte, potenzielle Risiken zu regulieren.
Im Mittelpunkt des Gesetzentwurfs steht die Verpflichtung für Unternehmen, die groß angelegte KI-Modelle entwickeln (mit Schulungskosten von über 100 Millionen US-Dollar), vor der Veröffentlichung umfassende Sicherheitstests durchzuführen. Gleichzeitig verlangt der Gesetzentwurf von diesen Unternehmen, in Krisensituationen „Notfall-Aus“-Funktionen einzurichten und dem kalifornischen Generalstaatsanwalt innerhalb von 72 Stunden nach Auftreten eines Sicherheitsvorfalls Bericht zu erstatten. Für die Überwachung der Einhaltung wird das neu gegründete „Frontier Model Bureau“ zuständig sein, bei wiederholten Verstößen drohen Geldstrafen von bis zu 30 Millionen US-Dollar.
Zu den Unterstützern zählen Koryphäen auf dem Gebiet der künstlichen Intelligenz wie Geoffrey Hinton und Yoshua Bengio, die glauben, dass dieser Gesetzentwurf für die Bekämpfung der Risiken künstlicher Intelligenz von entscheidender Bedeutung ist und möglicherweise sogar nationale Standards für die KI-Sicherheit festlegt.
Gegner glauben jedoch, dass der Gesetzentwurf Innovationen hemmen und zu einer Abwanderung kalifornischer Unternehmen wie Google, OpenAI und Meta führen könnte. Sie haben Bedenken hinsichtlich des Gesetzentwurfs geäußert und sind der Ansicht, dass kleine Unternehmen unverhältnismäßig stark betroffen sein werden und dass auch der technologische Fortschritt beeinträchtigt werden könnte. Verlangsamen. Sie forderten, auf Bundesebene Regelungen zu erlassen, um Unstimmigkeiten zwischen den Bundesstaaten zu vermeiden.
Der Gesetzentwurf SB1047 wurde mit Änderungen vom California Appropriations Committee verabschiedet und wartet nun auf eine endgültige Abstimmung im Landtag. Wenn der kalifornische Gouverneur Newsom den Gesetzentwurf unterzeichnet, wird es das erste ähnliche Regulierungsgesetz für künstliche Intelligenz in den Vereinigten Staaten sein und könnte weitreichende Folgen für die globale Technologieindustrie und die zukünftige Regulierung künstlicher Intelligenz haben.
Highlight:
? **Gesetz verabschiedet**: Das kalifornische Gesetz SB1047 zur Sicherheit künstlicher Intelligenz wurde verabschiedet und wartet auf die Unterschrift des Gouverneurs.
? **Sicherheitsmaßnahmen**: Der Gesetzentwurf verlangt, dass kostenintensive KI-Modelle Sicherheitstests unterzogen und Not-Aus-Funktionen eingerichtet werden.
? **Reaktionen aller Parteien**: Unter den Technologiegiganten gibt es Stimmen der Unterstützung und des Widerstands, die über die Auswirkungen auf Innovation und Braindrain besorgt sind.
Das endgültige Schicksal des SB1047-Gesetzes und seine Auswirkungen auf die Entwicklung der künstlichen Intelligenz verdienen weiterhin Aufmerksamkeit. Es hängt nicht nur mit der technologischen Zukunft Kaliforniens zusammen, sondern könnte auch ein wichtiger Referenzfall für die globale Regulierung der künstlichen Intelligenz sein.