L'Assemblée de l'État de Californie a récemment adopté un projet de loi très médiatisé sur la sécurité de l'IA, SB1047, qui vise à réglementer le développement et le déploiement de modèles d'IA à grande échelle, déclenchant des discussions animées au sein de la communauté technologique. L’essentiel du projet de loi est d’exiger des tests de sécurité rigoureux sur les modèles d’IA à grande échelle dont la formation coûte plus de 100 millions de dollars, et nécessite la mise en place de mécanismes d’arrêt d’urgence et de rapports en temps opportun après les accidents. L'adoption de ce projet de loi marque une étape importante dans la réglementation californienne en matière de sécurité de l'intelligence artificielle, et son influence pourrait s'étendre à tout le pays, voire au monde.
Récemment, les législateurs californiens ont adopté un projet de loi controversé sur la sécurité de l'intelligence artificielle, SB1047, qui n'a désormais besoin que d'un vote procédural final avant d'être envoyé au gouverneur de Californie, Gavin Newsom, pour signature. L'avancement de ce projet de loi a suscité un débat acharné au sein de la Silicon Valley, avec des voix de soutien et d'opposition mêlées et devenant le centre de l'attention de tous.
Remarque sur la source de l'image : l'image est générée par l'IA et l'image est autorisée par le fournisseur de services Midjourney
Le sénateur de l'État de Californie, Scott Wiener, a présenté le projet de loi, affirmant qu'il était fier de la coalition diversifiée derrière le projet de loi et que tout le monde pensait que l'innovation était aussi importante que la sécurité. Il estime que l'intelligence artificielle a un énorme potentiel pour changer le monde, et la mise en œuvre de ce projet de loi vise à garantir que ce potentiel puisse être libéré en toute sécurité.
Les géants de la technologie ont eu des réactions mitigées, le PDG de xAI, Elon Musk, ayant également exprimé son soutien. Il a souligné sur les réseaux sociaux que la Californie devrait adopter le SB1047 pour empêcher l'utilisation abusive de l'intelligence artificielle. Il a mentionné qu'il soutient la réglementation de l'intelligence artificielle depuis plus de 20 ans et estime qu'il est nécessaire de réglementer les risques potentiels.
Au cœur du projet de loi se trouve l’obligation pour les entreprises développant des modèles d’IA à grande échelle (avec des coûts de formation dépassant 100 millions de dollars) d’effectuer des tests de sécurité complets avant leur publication. Dans le même temps, le projet de loi oblige ces entreprises à mettre en place des fonctions « d'arrêt d'urgence » dans les situations de crise et à faire rapport au procureur général de Californie dans les 72 heures suivant un incident de sécurité. Le « Frontier Model Bureau » nouvellement créé sera chargé de contrôler la conformité, et les violations répétées seront passibles d'amendes pouvant aller jusqu'à 30 millions de dollars.
Parmi ses partisans figurent des sommités du domaine de l'intelligence artificielle, telles que Geoffrey Hinton et Yoshua Bengio, qui estiment que ce projet de loi est essentiel pour lutter contre les risques de l'intelligence artificielle et pourrait même fournir une définition nationale de normes pour la sécurité de l'IA.
Cependant, les opposants estiment que le projet de loi pourrait entraver l'innovation et conduire à une fuite des cerveaux. Des entreprises technologiques californiennes telles que Google, OpenAI et Meta ont exprimé leurs inquiétudes concernant le projet de loi, estimant que les petites entreprises seraient affectées de manière disproportionnée et que les progrès technologiques pourraient également être affectés. Ralentir. Ils ont demandé que des réglementations soient promulguées au niveau fédéral pour éviter les incohérences entre les États.
Le projet de loi SB1047 a été adopté par le comité des crédits de Californie avec des amendements et attend maintenant un vote final à l'Assemblée législative de l'État. Si le gouverneur de Californie Newsom signe le projet de loi, il deviendra la première loi similaire sur la réglementation de l’intelligence artificielle aux États-Unis et pourrait avoir des conséquences considérables sur l’industrie technologique mondiale et sur la future réglementation de l’intelligence artificielle.
Souligner:
? ** Projet de loi adopté ** : Le projet de loi californien sur la sécurité de l'intelligence artificielle SB1047 a été adopté et attend la signature du gouverneur.
? **Mesures de sécurité** : Le projet de loi exige que les modèles d'IA coûteux soient soumis à des tests de sécurité et mettent en place des fonctions d'arrêt d'urgence.
? **Réactions de tous les partis** : Il y a des voix de soutien et d'opposition parmi les géants de la technologie, qui s'inquiètent de l'impact sur l'innovation et de la fuite des cerveaux.
Le sort final du projet de loi SB1047 et son impact sur le développement de l’intelligence artificielle méritent une attention continue. Ce n’est pas seulement lié à l’avenir technologique de la Californie, mais il pourrait également constituer un cas de référence important pour la réglementation mondiale de l’intelligence artificielle.