Construa o futuro da inteligência artificial com uma estrutura de governança de segurança
Autor:Eve Cole
Data da Última Atualização:2024-11-22 11:00:02
Com o rápido desenvolvimento da ciência e da tecnologia, a inteligência artificial tornou-se uma das principais forças que promovem o progresso social. No entanto, à medida que os cenários de aplicação da inteligência artificial continuam a expandir-se, os desafios e riscos de segurança que enfrenta tornam-se cada vez mais complexos. Em 9 de setembro, no fórum principal da Semana Nacional de Publicidade de Segurança Cibernética de 2024, o Comitê Técnico Nacional de Padronização de Segurança Cibernética lançou a versão 1.0 da "Estrutura de Governança de Segurança de Inteligência Artificial" (doravante denominada "Estrutura") , que sem dúvida fornece soluções para os problemas desta época. Ideias importantes para a resolução de problemas. A segurança é um pré-requisito para o desenvolvimento. Riscos endógenos, como segurança de algoritmos de modelo, segurança de dados e segurança de sistemas, bem como riscos de segurança de aplicações no domínio da rede, domínio real, domínio cognitivo e domínio ético, podem parecer problemas menores, mas podem desencadear reações em cadeia e causar sérios impactos. Por exemplo, recentemente na Coreia do Sul, a tecnologia deepfake tem sido utilizada para criar informações falsas, o que representa uma ameaça à ordem social e à privacidade pessoal. Obviamente, face à rápida mudança da tecnologia de inteligência artificial, não só precisamos de prestar atenção ao desenvolvimento da própria tecnologia, mas também de ter em conta factores sociais, éticos, legais e outros, e de utilizar um quadro abrangente para orientar a inteligência artificial. governança de segurança de inteligência. Dê uma olhada mais de perto nesta "Estrutura", que é dividida em quatro seções principais: riscos de segurança, contramedidas técnicas, medidas de gerenciamento abrangentes e diretrizes de desenvolvimento e aplicação seguras. Ela não apenas esclarece os princípios básicos da governança de segurança da inteligência artificial, mas também esclarece os princípios básicos da governança de segurança da inteligência artificial. esclarece os requisitos para desenvolvedores de algoritmos de modelos de inteligência artificial. Os regulamentos de segurança para diferentes entidades, como prestadores de serviços, usuários em áreas-chave e o público, fornecem diretrizes técnicas básicas e estruturais para promover o desenvolvimento saudável e a aplicação padronizada da inteligência artificial. Vale a pena mencionar especialmente que este “Quadro” apresenta o princípio de governação de “inclusividade, prudência e garantia de segurança”. Afirma claramente que o desenvolvimento e a inovação são incentivados e que é adotada uma atitude inclusiva em relação à investigação, desenvolvimento e aplicação de inteligência artificial. Ao mesmo tempo, os resultados financeiros da segurança são rigorosamente observados e são tomadas medidas atempadas contra os riscos que possam surgir. pôr em perigo a segurança nacional, os interesses públicos sociais e os direitos e interesses legítimos do público. Deve-se dizer que isto não só deixa espaço suficiente para a livre exploração da tecnologia de inteligência artificial, mas também constrói um firewall sólido contra possíveis riscos. Assim como diziam os antigos: “Os sábios mudam de acordo com os tempos, e os sábios mudam de acordo com as circunstâncias”. A governança da inteligência artificial também precisa ser meticulosa e relaxada. Ao clarificar os regulamentos de segurança e as normas técnicas, orientar o desenvolvimento saudável da indústria de inteligência artificial não só ajudará a melhorar a competitividade global da indústria de inteligência artificial do meu país, mas também contribuirá com a sabedoria chinesa e as soluções chinesas para o desenvolvimento da inteligência artificial global. É claro que a publicação do Quadro é apenas o primeiro passo. A governação da segurança da inteligência artificial requer a participação conjunta de governos, empresas, instituições de investigação científica e do público. Por exemplo, os departamentos governamentais devem reforçar a supervisão para proteger o desenvolvimento seguro da inteligência artificial; as empresas devem aumentar o investimento em investigação e desenvolvimento tecnológico para melhorar a segurança e a fiabilidade da inteligência artificial; as instituições de investigação científica devem realizar investigação aprofundada sobre questões de segurança da inteligência artificial; fornecer soluções para problemas práticos; apoio intelectual; o público também deve aumentar a conscientização sobre segurança, usar produtos de inteligência artificial corretamente e criar em conjunto um ambiente de desenvolvimento de inteligência artificial seguro, confiável, justo e transparente. A tecnologia é orientada para as pessoas. Na onda da inteligência artificial, devemos ter a coragem de surfar na onda e a sabedoria para nos prepararmos para os dias chuvosos. Agora, ao estabelecer um quadro de governação de segurança sólido, estamos obviamente mais confiantes em enfrentar os desafios trazidos pela inteligência artificial e avançar conjuntamente para um futuro de inteligência artificial mais seguro e sustentável.