Construya el futuro de la inteligencia artificial con un marco de gobernanza de la seguridad
Autor:Eve Cole
Fecha de actualización:2024-11-22 11:00:02
Con el rápido desarrollo de la ciencia y la tecnología, la inteligencia artificial se ha convertido en una de las fuerzas clave que promueven el progreso social. Sin embargo, a medida que los escenarios de aplicación de la inteligencia artificial continúan expandiéndose, los desafíos y riesgos de seguridad que enfrenta se vuelven cada vez más complejos. El 9 de septiembre, en el foro principal de la Semana Nacional de Publicidad de Seguridad Cibernética 2024, el Comité Técnico Nacional de Normalización de Seguridad Cibernética lanzó la versión 1.0 del "Marco de Gobernanza de Seguridad de Inteligencia Artificial" (en adelante, el "Marco") , que sin duda proporciona soluciones a los problemas de esta época. Ideas importantes para la resolución de problemas. La seguridad es un requisito previo para el desarrollo. Los riesgos endógenos, como la seguridad de los algoritmos del modelo, la seguridad de los datos y la seguridad del sistema, así como los riesgos de seguridad de las aplicaciones en el dominio de la red, el dominio real, el dominio cognitivo y el dominio ético, pueden parecer problemas menores, pero pueden desencadenar reacciones en cadena y causar impactos graves. Por ejemplo, recientemente en Corea del Sur se ha utilizado tecnología deepfake para crear información falsa, lo que ha planteado una amenaza al orden social y la privacidad personal. Obviamente, frente a los rápidos cambios de la tecnología de inteligencia artificial, no solo debemos prestar atención al desarrollo de la tecnología en sí, sino también tener en cuenta los factores sociales, éticos, legales y de otro tipo, y utilizar un marco integral para guiar la inteligencia artificial. Gobernanza de la seguridad de la inteligencia. Eche un vistazo más de cerca a este "Marco", que se divide en cuatro secciones principales: riesgos de seguridad, contramedidas técnicas, medidas de gestión integral y pautas de aplicación y desarrollo seguro. No solo aclara los principios básicos de la gobernanza de la seguridad de la inteligencia artificial, sino también. aclara los requisitos para los desarrolladores de algoritmos de modelos de inteligencia artificial. Las normas de seguridad para diferentes entidades, como proveedores de servicios, usuarios en campos clave y el público, proporcionan pautas técnicas básicas y marco para promover el desarrollo saludable y la aplicación estandarizada de la inteligencia artificial. Vale la pena mencionar en particular que este "Marco" plantea el principio de gobernanza de "inclusión, prudencia y garantía de seguridad". Se establece claramente que se fomenta el desarrollo y la innovación y se adopta una actitud inclusiva hacia la investigación, el desarrollo y la aplicación de la inteligencia artificial. Al mismo tiempo, se observan estrictamente los principios básicos de seguridad y se toman medidas oportunas contra los riesgos que puedan surgir. poner en peligro la seguridad nacional, los intereses públicos sociales y los derechos e intereses legítimos del público. Hay que decir que esto no sólo deja suficiente espacio para la libre exploración de la tecnología de inteligencia artificial, sino que también construye un sólido cortafuegos contra posibles riesgos. Tal como decían los antiguos: "Los sabios cambian según los tiempos y los sabios cambian según las circunstancias". El gobierno de la inteligencia artificial también debe ser meticuloso y relajado. Al aclarar las regulaciones de seguridad y los estándares técnicos, guiar el desarrollo saludable de la industria de la inteligencia artificial no solo ayudará a mejorar la competitividad general de la industria de la inteligencia artificial de mi país, sino que también contribuirá con la sabiduría y las soluciones chinas al desarrollo de la inteligencia artificial global. Por supuesto, la publicación del Marco es sólo el primer paso. La gobernanza de la seguridad de la inteligencia artificial requiere la participación conjunta de gobiernos, empresas, instituciones de investigación científica y el público. Por ejemplo, los departamentos gubernamentales deberían fortalecer la supervisión para proteger el desarrollo seguro de la inteligencia artificial; las empresas deberían aumentar la inversión en investigación y desarrollo de tecnología para mejorar la seguridad y confiabilidad de la inteligencia artificial; las instituciones de investigación científica deberían realizar investigaciones en profundidad sobre cuestiones de seguridad de la inteligencia artificial; proporcionar soluciones a problemas prácticos. El apoyo intelectual también debe mejorar la conciencia de seguridad, utilizar correctamente los productos de inteligencia artificial y crear conjuntamente un entorno de desarrollo de inteligencia artificial seguro, confiable, justo y transparente. La tecnología está orientada a las personas. En la ola de la inteligencia artificial, debemos tener el coraje de subirnos a la ola y la sabiduría para prepararnos para los días lluviosos. Ahora, al establecer un marco sólido de gobernanza de la seguridad, obviamente tenemos más confianza para enfrentar los desafíos que plantea la inteligencia artificial y avanzar juntos hacia un futuro de inteligencia artificial más seguro y sostenible.