La Asamblea del Estado de California aprobó recientemente un proyecto de ley de seguridad de la IA de alto perfil, SB1047, cuyo objetivo es regular el desarrollo y la implementación de modelos de IA a gran escala, lo que generó acalorados debates en la comunidad tecnológica. El núcleo del proyecto de ley es exigir pruebas de seguridad rigurosas de los modelos de IA a gran escala cuyo entrenamiento cuesta más de 100 millones de dólares, y exige el establecimiento de mecanismos de parada de emergencia y la presentación de informes oportunos después de los accidentes. La aprobación de este proyecto de ley marca un paso importante en la regulación de seguridad de la inteligencia artificial de California, y su influencia puede extenderse por todo el país e incluso el mundo.
Recientemente, los legisladores de California aprobaron un controvertido proyecto de ley de seguridad de la inteligencia artificial, el SB1047, que ahora solo necesita una votación procesal final antes de ser enviado al gobernador de California, Gavin Newsom, para su firma. El avance de este proyecto de ley ha provocado un feroz debate dentro de Silicon Valley, con voces de apoyo y oposición entrelazadas y convirtiéndose en el foco de atención de todos.
Nota sobre la fuente de la imagen: la imagen es generada por IA y la imagen está autorizada por el proveedor de servicios Midjourney
El senador del estado de California, Scott Wiener, presentó el proyecto de ley y dijo que estaba orgulloso de la coalición diversa detrás del proyecto de ley y que todos creían que la innovación era tan importante como la seguridad. Él cree que la inteligencia artificial tiene un enorme potencial para cambiar el mundo, y la implementación de este proyecto de ley es para garantizar que este potencial pueda liberarse de manera segura.
Los gigantes tecnológicos han tenido reacciones encontradas y el director ejecutivo de xAI, Elon Musk, también expresó su apoyo. Señaló en las redes sociales que California debería aprobar la SB1047 para evitar el uso indebido de la inteligencia artificial. Mencionó que apoya la regulación de la inteligencia artificial desde hace más de 20 años y cree que es necesario regular los riesgos potenciales.
En el centro del proyecto de ley se encuentra el requisito de que las empresas que desarrollan modelos de IA a gran escala (con costos de capacitación que superan los 100 millones de dólares) realicen pruebas de seguridad exhaustivas antes de su lanzamiento. Al mismo tiempo, el proyecto de ley exige que estas empresas establezcan funciones de "parada de emergencia" en situaciones de crisis e informen al Fiscal General de California dentro de las 72 horas siguientes a que se produzca un incidente de seguridad. La recién creada "Oficina Modelo Fronteriza" será responsable de monitorear el cumplimiento, y las violaciones repetidas enfrentarán multas de hasta 30 millones de dólares.
Entre sus partidarios se encuentran luminarias del campo de la inteligencia artificial, como Geoffrey Hinton y Yoshua Bengio, que creen que este proyecto de ley es fundamental para combatir los riesgos de la inteligencia artificial e incluso puede proporcionar un establecimiento de estándares nacionales para la seguridad de la IA.
Sin embargo, los opositores creen que el proyecto de ley puede inhibir la innovación y provocar una fuga de cerebros. Las empresas tecnológicas de California como Google, OpenAI y Meta han expresado su preocupación por el proyecto de ley, creyendo que las pequeñas empresas se verán afectadas de manera desproporcionada y que el progreso tecnológico también podría verse afectado. Desacelerar. Pidieron que se promulgaran regulaciones a nivel federal para evitar inconsistencias entre estados.
El proyecto de ley SB1047 fue aprobado por el Comité de Asignaciones de California con enmiendas y ahora está esperando una votación final en la Legislatura estatal. Si el gobernador Newsom de California firma el proyecto de ley, se convertirá en la primera ley regulatoria de inteligencia artificial similar en los Estados Unidos y podría tener consecuencias de gran alcance para la industria tecnológica global y la futura regulación de la inteligencia artificial.
Destacar:
? ** Proyecto de ley aprobado **: El proyecto de ley de seguridad de la inteligencia artificial SB1047 de California fue aprobado y está a la espera de la firma del gobernador.
**Medidas de seguridad**: el proyecto de ley exige que los modelos de IA de alto costo se sometan a pruebas de seguridad y establezcan funciones de parada de emergencia.
? **Reacciones de todas las partes**: Hay voces de apoyo y oposición entre los gigantes tecnológicos, que están preocupados por el impacto en la innovación y la fuga de cerebros.
El destino final del proyecto de ley SB1047 y su impacto en el desarrollo de la inteligencia artificial merecen una atención continua. No sólo está relacionado con el futuro tecnológico de California, sino que también puede proporcionar un caso de referencia importante para la regulación global de la inteligencia artificial.