A Assembleia do Estado da Califórnia aprovou recentemente um projeto de lei de segurança de IA de alto nível, SB1047, que visa regular o desenvolvimento e implantação de modelos de IA em grande escala, desencadeando discussões acaloradas na comunidade tecnológica. O núcleo do projeto de lei é exigir testes de segurança rigorosos de modelos de IA em grande escala cujo treinamento custa mais de US$ 100 milhões e exige a criação de mecanismos de parada de emergência e relatórios oportunos após acidentes. A aprovação deste projeto de lei marca um passo importante na regulamentação de segurança da inteligência artificial da Califórnia, e a sua influência pode espalhar-se por todo o país e até pelo mundo.
Recentemente, os legisladores da Califórnia aprovaram um polêmico projeto de lei de segurança de inteligência artificial, SB1047, que agora só precisa de uma votação processual final antes de ser enviado ao governador da Califórnia, Gavin Newsom, para assinatura. O avanço deste projeto de lei causou um debate acirrado no Vale do Silício, com vozes de apoio e oposição entrelaçadas e se tornando o foco da atenção de todos.
Nota sobre a fonte da imagem: A imagem é gerada por IA e é autorizada pelo provedor de serviços Midjourney
O senador estadual da Califórnia, Scott Wiener, apresentou o projeto, dizendo estar orgulhoso da coalizão diversificada por trás do projeto e que todos acreditavam que a inovação era tão importante quanto a segurança. Ele acredita que a inteligência artificial tem um enorme potencial para mudar o mundo, e a implementação deste projeto de lei visa garantir que esse potencial possa ser liberado com segurança.
Os gigantes da tecnologia tiveram reações mistas, com o CEO da xAI, Elon Musk, também expressando apoio. Ele destacou nas redes sociais que a Califórnia deveria aprovar o SB1047 para evitar o uso indevido de inteligência artificial. Ele mencionou que apoia a regulamentação da inteligência artificial há mais de 20 anos e acredita que é necessário regular os riscos potenciais.
No centro do projeto de lei está a exigência de que as empresas que desenvolvem modelos de IA em grande escala (com custos de treinamento superiores a US$ 100 milhões) realizem testes de segurança abrangentes antes do lançamento. Ao mesmo tempo, o projeto de lei exige que essas empresas estabeleçam funções de “parada de emergência” em situações de crise e reportem ao Procurador-Geral da Califórnia dentro de 72 horas após a ocorrência de um incidente de segurança. O recém-criado “Frontier Model Bureau” será responsável por monitorar a conformidade, e as violações repetidas enfrentarão multas de até US$ 30 milhões.
Os apoiantes incluem luminares no campo da inteligência artificial, como Geoffrey Hinton e Yoshua Bengio, que acreditam que este projeto de lei é fundamental para combater os riscos da inteligência artificial e pode até fornecer um estabelecimento nacional de padrões para a segurança da IA.
No entanto, os oponentes acreditam que o projeto de lei pode inibir a inovação e levar à fuga de cérebros. Empresas de tecnologia da Califórnia, como Google, OpenAI e Meta, expressaram preocupações sobre o projeto de lei, acreditando que as pequenas empresas serão afetadas de forma desproporcional e que o progresso tecnológico também poderá ser afetado. Desacelerar. Eles pediram que regulamentações fossem promulgadas em nível federal para evitar inconsistências entre os estados.
O projeto de lei SB1047 foi aprovado no Comitê de Dotações da Califórnia com emendas e agora aguarda a votação final no Legislativo estadual. Se o governador da Califórnia, Newsom, assinar o projeto de lei, ele se tornará a primeira lei regulatória semelhante sobre inteligência artificial nos Estados Unidos e poderá ter consequências de longo alcance para a indústria global de tecnologia e para a futura regulamentação da inteligência artificial.
Destaque:
? ** Projeto de lei aprovado **: O projeto de lei de segurança de inteligência artificial SB1047 da Califórnia foi aprovado e aguarda a assinatura do governador.
? **Medidas de segurança**: O projeto de lei exige que modelos de IA de alto custo sejam submetidos a testes de segurança e configurem funções de parada de emergência.
? **Reações de todas as partes**: Há vozes de apoio e oposição entre os gigantes da tecnologia, que estão preocupados com o impacto na inovação e na fuga de cérebros.
O destino final do projeto de lei SB1047 e o seu impacto no desenvolvimento da inteligência artificial merecem atenção contínua. Não está apenas relacionado com o futuro tecnológico da Califórnia, mas também pode fornecer um importante caso de referência para a regulamentação global da inteligência artificial.