Garantir que a inteligência artificial seja segura, confiável e controlável contribui para o progresso da civilização humana e é uma questão importante que deve ser resolvida para o desenvolvimento da inteligência artificial. A "Decisão" da Terceira Sessão Plenária do 20º Comité Central do Partido Comunista da China tomou medidas importantes, como "estabelecer um sistema de supervisão de segurança de inteligência artificial" e "melhorar o mecanismo de desenvolvimento e gestão da inteligência artificial generativa". Como fortalecer a governação da inteligência artificial, prevenir e resolver eficazmente vários riscos de segurança provocados pelo desenvolvimento da inteligência artificial e melhorar continuamente a institucionalização e legalização da supervisão de segurança da inteligência artificial? Esta edição acadêmica enfoca essas questões.
O secretário-geral Xi Jinping destacou: "A inteligência artificial é uma importante força motriz para uma nova rodada de revolução científica e tecnológica e de transformação industrial, e terá um impacto profundo no desenvolvimento econômico e social global e no progresso da civilização artificial generativa." inteligência refere-se à geração de inteligência artificial baseada em algoritmos, modelos e regras de tecnologia para texto, imagens, sons, vídeos, códigos e outros conteúdos. Apoiada por dados massivos e poderoso poder de computação, a inteligência artificial generativa que pode compreender, falar e interagir é rapidamente atualizada de forma iterativa, mostrando características como boa interatividade, alta versatilidade e generatividade inteligente, e está funcionando com todas as esferas da vida da indústria. formou conexões mais rígidas, de alta frequência, onipresentes e profundas, o que também leva a riscos potenciais cada vez mais reais. A "Decisão" da Terceira Sessão Plenária do 20º Comitê Central do Partido Comunista da China compreendeu cientificamente as leis e características do desenvolvimento da inteligência artificial e propôs "estabelecer um sistema de supervisão de segurança da inteligência artificial" e "melhorar o desenvolvimento e mecanismo de gestão da inteligência artificial generativa", que reflete a necessidade de um desenvolvimento e segurança melhor coordenados. É uma necessidade objetiva apontar o caminho a seguir para promover o progresso tecnológico, o desenvolvimento industrial e a segurança no domínio da inteligência artificial.
A operação técnica da inteligência artificial generativa pode ser dividida em três etapas, a saber, a etapa preparatória do treinamento de pré-aprendizagem e atualização do algoritmo assistido por anotação manual, a etapa de cálculo de entrada de dados para processamento de algoritmo para obtenção dos produtos gerados, e o gerado produtos que entram na sociedade para uso. Devemos analisar profundamente o mecanismo de funcionamento da inteligência artificial generativa, compreender as características da formação e desenvolvimento dos riscos de segurança em cada fase, utilizar meios legais para fortalecer a governação sistémica e garantir que o enorme poder contido na inteligência artificial generativa desempenha sempre um papel no caminho do Estado de Direito.
Na fase de preparação da inteligência artificial generativa, os riscos de segurança de dados tendem a ocorrer com frequência e são mais proeminentes. A inteligência artificial generativa refina informações e prevê tendências por meio de treinamento, processamento e análise de dados. Isto requer uma classificação adequada de dados e o estabelecimento de padrões de utilização e métodos de proteção para diferentes tipos de dados, a fim de responder adequadamente aos riscos relevantes de segurança de dados e evitar o uso ilegal ou a divulgação indevida de dados, resultando em disputas por infração. Por exemplo, os dados governamentais formados durante o processo de processamento governamental são um elemento central do governo digital. Para tirar conclusões relativamente precisas, a inteligência artificial generativa recolhe e analisa inevitavelmente dados governamentais. Devem ser esclarecidas as regras legais para a aquisição e utilização de dados governamentais por inteligência artificial generativa, o que não só atende às necessidades de utilização de dados governamentais para servir a sociedade, mas também apoia fortemente o desenvolvimento, treinamento e aplicação de grandes modelos de inteligência artificial governamental serviços públicos e melhora o nível inteligente dos serviços públicos e da governação social; e Padronizar os seus métodos de processamento para evitar que os resultados obtidos com a utilização de dados governamentais violem os direitos pessoais e perturbem a ordem social e pública. No que diz respeito aos dados pessoais, a inteligência artificial generativa explora o seu valor potencial através de análises combinadas, e a sua recolha e utilização de dados pessoais e os seus resultados podem infringir os direitos civis. Na prática, a inteligência artificial generativa tende a recolher excessivamente dados pessoais para melhorar a precisão das conclusões, por exemplo, analisando dados médicos e de saúde para explorar o paradeiro pessoal e prever trajetórias de vida pessoais. Para tal, devemos insistir na recolha de dados de acordo com a lei, recolher dados pessoais de acordo com o âmbito mínimo exigido pela tecnologia, definir uma profundidade razoável de processamento de dados e evitar a exploração excessiva de potenciais informações. Em resumo, os requisitos de supervisão de segurança de dados classificados e hierárquicos devem ser incorporados na fase de preparação da inteligência artificial generativa para evitar que os riscos de segurança de dados evoluam para consequências jurídicas específicas.
Na fase computacional da inteligência artificial generativa, o risco de viés algorítmico inerente aos grandes modelos de inteligência artificial merece vigilância. A inteligência artificial generativa analisa e processa principalmente dados por meio de modelos de algoritmos. Diferente dos modelos de algoritmos tradicionais, a inteligência artificial generativa não apenas realiza o aprendizado de máquina, mas também utiliza um grande número de anotações manuais para corrigir as conclusões do aprendizado de máquina e promover a evolução da inteligência artificial. No entanto, "aprendizado de máquina + anotação manual", como o núcleo da tecnologia de algoritmos, também fará com que a vontade e as preferências humanas tenham um impacto maior do que o aprendizado de máquina puro. A influência das preferências pessoais se sobrepõe ao viés do próprio modelo de algoritmo, o que duplicará os efeitos negativos do viés algorítmico, tornando a ocorrência de viés algorítmico mais difícil de rastrear e prevenir. Para prevenir e resolver o risco de enviesamento algorítmico, a governação direcionada deve ser realizada com base nos princípios e locais onde ocorre o enviesamento algorítmico. É necessário incorporar profundamente os requisitos das regulamentações legais no modelo algorítmico de inteligência artificial generativa, promover a tecnologia para o bem, eliminar vieses de algoritmos, garantir o uso racional de algoritmos de inteligência artificial generativa e alocar recursos computacionais. Com base no conceito de combinar tecnologia e gestão, fortaleceremos a supervisão de segurança de ciclo completo de algoritmos e implementaremos os requisitos das regulamentações legais em todo o processo de operação generativa de inteligência artificial. No início da configuração do algoritmo, é necessário seguir as normas legais e padrões técnicos pertinentes, implementar os requisitos normativos de "aprendizado de máquina + anotação manual", revisar os módulos do algoritmo arriscado e descobrir melhor os riscos técnicos no algoritmo generativo de inteligência artificial modelo quando descoberto Quando ocorre um viés algorítmico inato, é exigido por lei remover o viés algorítmico inato de dentro do algoritmo da inteligência artificial generativa. Fazer correções para garantir que o algoritmo modificado possa funcionar normalmente quando surgirem problemas posteriormente, rastrear a origem do algoritmo de inteligência artificial para obter atribuição e correção precisas, promover a melhoria dos padrões de supervisão do algoritmo para inteligência artificial generativa e preencher a lacuna anterior; revisão preventiva Devem ser utilizados meios técnicos e meios legais insuficientes em paralelo para alcançar igual ênfase no desenvolvimento e na gestão.
Na fase de geração da inteligência artificial generativa, existem vários riscos, tais como riscos de propriedade intelectual relacionados com os produtos gerados e riscos de utilização indevida dos produtos gerados. Como a inteligência artificial generativa é altamente inteligente, ela pode realizar compilação automática de conteúdo, polimento inteligente, conversão multimodal e geração criativa, mudando diretamente o método de produção e o modelo de fornecimento de conteúdo. Em comparação com os sistemas de inteligência artificial anteriores, ocorreram mudanças subversivas, que. levou a questões como a propriedade dos direitos de propriedade intelectual e a proteção da propriedade intelectual de produtos gerados de inteligência artificial generativa. Algumas pessoas acreditam que os produtos da inteligência artificial generativa são as conclusões de algoritmos de dados, que são essencialmente cálculos e imitações, em vez de trabalho intelectual, e não podem tornar-se objecto de direitos de propriedade intelectual. Os oponentes acreditam que a inteligência artificial generativa simula a estrutura das redes neurais do cérebro humano para obter e produzir dados e controla seu próprio design e fabricação por meio de redes neurais convolucionais. Seus produtos originais e inovadores devem ser protegidos por leis de propriedade intelectual. Ao mesmo tempo, a inteligência artificial generativa também aumenta o risco de disputas de propriedade intelectual e a dificuldade de protecção. Alguns produtos gerados podem conter conteúdo que infrinja os direitos de propriedade intelectual de terceiros, ou podem ser empacotados em obras originais com direitos de propriedade intelectual completos. através de processamento e outros meios, desencadeando disputas relacionadas com direitos de propriedade intelectual. A fim de resolver questões relacionadas em tempo hábil, os modelos técnicos e os princípios técnicos da inteligência artificial generativa devem ser analisados substancialmente de acordo com os padrões da lei de propriedade intelectual. Se a tecnologia exigir a intervenção da vontade humana para permitir que os produtos gerados funcionem. produzir originalidade e inovação, os direitos de propriedade intelectual devem ser concedidos E esclarecer a sua propriedade e reforçar a protecção sistemática dos direitos de propriedade intelectual no domínio da inteligência artificial generativa, ao mesmo tempo, é necessário determinar razoavelmente o âmbito de protecção do intelectual gerado; direitos de propriedade para evitar a expansão ilimitada do âmbito de proteção e impedir a promoção, aplicação e desenvolvimento tecnológico da inteligência artificial generativa. É também necessário reforçar a gestão dos riscos de utilização indevida dos produtos. Por exemplo, os trabalhos são obrigados a identificar claramente o papel da inteligência artificial generativa na criação do autor, e a supervisão precisa e normalizada de falsificações profundas, mudança de rosto de IA e outros produtos gerados que possam envolver crimes ilegais será reforçada, etc.
A inteligência artificial generativa tem muitos impactos difusos nas aplicações sociais. Além dos riscos acima mencionados, existem muitos outros tipos de riscos, como o agravamento da assimetria de informação, o alargamento da exclusão digital e o prejuízo aos interesses de grupos digitalmente desfavorecidos. As respostas devem ser dadas com base nas condições reais para minimizar o impacto negativo das novas tecnologias no desenvolvimento social.
O secretário-geral Xi Jinping enfatizou: "Aderir à orientação para as pessoas e à sabedoria para o bem." Actualmente, a tecnologia de inteligência artificial está a mudar a cada dia que passa, o que não só muda profundamente a produção e o estilo de vida das pessoas, acelera o processo de desenvolvimento económico e social, mas também tem um impacto nas normas legais, na ética moral, na governação pública, etc. Entre elas, as ameaças à privacidade e à segurança das informações pessoais são questões importantes que merecem atenção. A "Decisão" da Terceira Sessão Plenária do 20º Comitê Central do Partido Comunista da China tomou medidas importantes para "estabelecer um sistema de supervisão de segurança de inteligência artificial". A proteção dos direitos de privacidade e da segurança das informações pessoais é parte integrante da supervisão de segurança de inteligência artificial. . A proteção da privacidade na era da inteligência artificial deve ser reforçada para garantir a segurança das informações pessoais.
Na era da inteligência artificial, os direitos à privacidade enfrentam graves desafios. Privacidade refere-se à paz e ao espaço privado da vida privada de uma pessoa física, às atividades privadas e às informações privadas que ela não deseja que outros conheçam. O Código Civil estipula: “As pessoas singulares gozam do direito à privacidade. Nenhuma organização ou indivíduo pode infringir os direitos de privacidade de terceiros por meio de espionagem, intrusão, fuga, divulgação, etc.”. direitos da personalidade, é uma base importante para a construção da dignidade pessoal. Não ser divulgado e não ser conhecido são as principais exigências dos direitos de privacidade. Atualmente, a inteligência artificial está silenciosamente envolvida em todos os aspectos e aspectos da produção e da vida das pessoas, resultando em muitos cenários de aplicação, como cuidados médicos inteligentes, transporte inteligente e recomendações inteligentes. Certas falhas na própria tecnologia e regras imperfeitas não podem ser ignoradas. Evite problemas de violação de privacidade. Por exemplo, coletar e usar ilegalmente informações pessoais, usar e analisar essas informações pessoais para enviar frequentemente os chamados "anúncios de precisão" "personalizados", vazar informações pessoais para terceiros, fazendo com que a vida privada seja frequentemente invadida por informações de spam; informações para conduzir "big data" "matar a familiaridade" para alcançar uma discriminação precisa de preços de "um cliente, um preço", Os cidadãos sofrem perdas de propriedade; informações pessoais insensíveis são reidentificadas, dados são vazados devido a medidas de proteção inadequadas, a compra e venda ilegal de informações pessoais é comum e a segurança das informações pessoais é violada; Mudança de rosto de IA, etc. significa cometer atos ilegais e criminosos, como fraude, etc. Isto mostra que a violação dos direitos de privacidade não só viola a dignidade pessoal dos cidadãos, mas também causa outras consequências sociais graves.
As características técnicas da desprivatização agravam os riscos de segurança das informações pessoais. No início da aplicação da inteligência artificial baseada em big data, muitas pessoas viam esta nova tecnologia com uma atitude de esperar para ver e com ceticismo. À medida que a inteligência artificial continua a melhorar a experiência do produto e os sentimentos psicológicos dos usuários por meio de formas externas antropomórficas, prestação de serviços personalizados e processos interativos imersivos, mais e mais pessoas gradualmente se tornam usuários fiéis da inteligência artificial e desfrutam de todos os tipos de conveniências que a inteligência artificial traz para você. Com a popularização da tecnologia IoT para interação humano-computador e interconexão de todas as coisas, cenários de aplicação de inteligência artificial, como casas inteligentes, escritórios inteligentes, fábricas inteligentes e direção inteligente, também estão em constante expansão. espaço digital na forma de humanos digitais e também transmitir informações pessoais à inteligência artificial. Quaisquer vestígios deixados pelos indivíduos no espaço digital são digitalizados para formar informações pessoais e desempenham uma função importante como “meio de conexão com o mundo” para as pessoas. Ao mesmo tempo, a inteligência artificial também tende a recolher e utilizar excessivamente informações pessoais para melhorar a qualidade do serviço. Tudo isso faz com que a inteligência artificial tenha características técnicas distintas de deprivatização. É também no fluxo de informações pessoais a que os utilizadores da inteligência artificial estão habituados, que o big data misturado com dados públicos e dados privados é extraído, integrado, analisado e utilizado. É difícil para as pessoas detectarem com os seus próprios sentidos essa privacidade. direitos foram violados e informações pessoais foram violadas. A segurança corre maior risco.
Respeite as escolhas individuais e insista no consentimento informado. Diferentes pessoas têm diferentes níveis de aceitação de informações pessoais conhecidas e utilizadas. Os desejos individuais devem ser respeitados e o princípio do "consentimento informado" deve ser implementado de forma científica e racional. O princípio do consentimento informado inclui dois aspectos: consentimento informado e consentimento deve ser informado. Sem pleno conhecimento e compreensão, não pode haver consentimento verdadeiro. Informação, compreensão e voluntariedade são os três elementos do princípio do consentimento informado. Com base em estarem totalmente “informados”, os indivíduos podem expressar de forma independente o seu “consentimento”. Isso requer o fornecimento de instruções claras e fáceis de entender quando os usuários usam inteligência artificial e a obtenção do consentimento dos usuários para a coleta e uso de informações pessoais. Se as informações pessoais fluirem entre diferentes plataformas, os usuários precisarão ser informados sobre o escopo, o alvo e os limites de uso do fluxo. Para uma experiência de usuário boa e tranquila, os usuários também podem ter a opção de autorização de uma só vez ou em etapas. Os usuários devem ser informados sobre o escopo, o método e a finalidade da coleta de informações pessoais e com quem as informações pessoais são compartilhadas, e os usuários também devem poder optar pela exclusão a qualquer momento. Ao analisar informações pessoais, os usuários devem ser solicitados a prestar atenção e autorizar em tempo real por meio de janelas pop-up ou outros formulários. Definir o ciclo de vida dos dados e excluir informações pessoais a tempo também são formas eficazes de proteger a segurança das informações pessoais.
Melhorar os meios técnicos para garantir a inteligência para sempre. Para problemas causados pela tecnologia, devemos ser bons em estabelecer ideias para resolver problemas do ponto de vista técnico. Na era da inteligência artificial, os direitos à privacidade enfrentam desafios e o gatilho direto é a evolução da tecnologia. Da inteligência artificial analítica à inteligência artificial generativa, cada atualização iterativa da tecnologia de inteligência artificial pode trazer novos impactos nos direitos de privacidade. Portanto, as soluções técnicas devem ser colocadas numa posição chave e devem ser estabelecidas firewalls que protejam os direitos de privacidade e a segurança das informações pessoais, melhorando a segurança das bases de dados, a encriptação dos dados essenciais, a dessensibilização dos dados pessoais e outras tecnologias. As informações pessoais geralmente passam por três fases de recolha, armazenamento e utilização, e estas três fases podem envolver riscos de violação dos direitos de privacidade e segurança das informações pessoais. A proteção técnica eficaz deve ser realizada de acordo com as diferentes situações de informações pessoais em diferentes fases. Na fase de recolha de informações pessoais, reforçar a promoção e aplicação da tecnologia de anonimato. Embora a recolha de informações pessoais seja inevitável, desde que sejam anonimizadas e não correspondam às informações pessoais com a identidade, o direito à privacidade não será violado. Na fase de armazenamento de informações pessoais, a tecnologia de criptografia deve ser melhorada. Atualmente, existem duas formas principais de armazenamento de dados: armazenamento em banco de dados e armazenamento em nuvem. A intrusão e roubo externos e a visualização, utilização e fuga não autorizadas por pessoas internas são as principais ameaças à segurança das informações pessoais durante a fase de armazenamento. É necessário reforçar a encriptação de dados e controlar rigorosamente os direitos de acesso aos dados. Durante a fase de utilização de informações pessoais, é necessário fortalecer tecnicamente a intervenção em tempo real, a interferência e o bloqueio de usos ilegais de informações pessoais, de modo a adicionar uma camada adicional de proteção aos direitos de privacidade e à segurança das informações pessoais.
À medida que as regras jurídicas do meu país são cada vez mais aperfeiçoadas e a protecção continua a ser reforçada, especialmente o Código Civil e a Lei de Protecção de Informações Pessoais, que têm disposições detalhadas sobre direitos de privacidade e protecção de informações pessoais, clarificando os limites dos direitos e obrigações nas actividades de processamento de informações pessoais , meu país na era da inteligência artificial A proteção legal dos direitos de privacidade e segurança da informação pessoal certamente alcançará um nível mais elevado, proporcionando forte proteção legal para o desenvolvimento saudável da inteligência artificial e beneficiando melhor as pessoas.
A prosperidade da ciência e da tecnologia fará com que a nação prospere, e a ciência e a tecnologia fortes tornarão o país forte. Desde o 18º Congresso Nacional do Partido Comunista da China, meu país atribuiu grande importância ao desenvolvimento da inteligência artificial, promoveu ativamente a integração profunda da Internet, big data, inteligência artificial e economia real, cultivou e expandiu indústrias inteligentes, acelerou o desenvolvimento de novas forças produtivas e proporcionou um novo impulso para o desenvolvimento de alta qualidade. O secretário-geral Xi Jinping destacou: "Devemos aderir à unidade de promoção do desenvolvimento e gestão de acordo com a lei, não apenas cultivar vigorosamente novas tecnologias e novas aplicações, como a inteligência artificial, a Internet das Coisas e as redes de comunicação da próxima geração, mas também também usam ativamente leis, regulamentos e padrões para orientar a aplicação de novas tecnologias." Xi Jinping A importante exposição do Secretário Geral fornece conformidade fundamental e orientação de ação para o desenvolvimento da inteligência artificial em nosso país. Para desenvolver vigorosamente a inteligência artificial e melhorar o nível de governação da segurança da inteligência artificial, devemos implementar plenamente a importante implementação do "estabelecimento de um sistema de supervisão da segurança da inteligência artificial" proposto pela "Decisão" da Terceira Sessão Plenária do 20.º Comité Central do Partido Comunista da China, e compreender com precisão o desenvolvimento das tendências da inteligência artificial, concentrando-se na tecnologia de inteligência artificial de ponta e nos riscos e desafios que ela traz, fortalecendo o pensamento voltado para o futuro e explorando constantemente soluções inovadoras para a governança da inteligência artificial.
Atualmente, a inteligência artificial generativa criou um novo paradigma de interação humano-computador. Com suas poderosas capacidades de interação, compreensão e geração, desenvolveu um modelo de linguagem natural em grande escala como componente central, integrando memória, planejamento e uso de ferramentas, com. a capacidade de perceber e agir. As capacidades dos agentes artificiais abrem vastas perspectivas. A inteligência artificial tornou-se a mais importante direção de pesquisa de ponta da inteligência artificial geral e um novo caminho que as empresas de tecnologia estão competindo para traçar. Ele usa um grande modelo de linguagem natural como um "motor inteligente" e possui características de autonomia, adaptabilidade e interatividade. Pode melhorar significativamente a eficiência da produção, aprimorar a experiência do usuário, fornecer suporte à decisão além das capacidades humanas e pode ser aplicado ao desenvolvimento de software e. pesquisa científica e outros cenários da vida real. Embora a comercialização em grande escala ainda esteja na fase preliminar de exploração e incubação, tendências como a integração virtual e real e a interacção humana-computador profunda representada pela inteligência artificial têm um importante significado orientador para o desenvolvimento económico e social. No entanto, devido a limitações técnicas, os agentes artificiais também podem causar riscos e preocupações complexos, dinâmicos e imprevistos.
Do ponto de vista da lógica de design, a inteligência artificial precisa obter capacidades cognitivas através do controle, obter e utilizar informações do ambiente circundante através do sensoriamento e, finalmente, tornar-se um sistema inteligente que percebe e age com base em entidades físicas na ação. fim.
Do lado do controle, o modelo de linguagem natural em grande escala serve como o “cérebro” do corpo artificial. Ele forma conhecimento por meio do aprendizado de dados massivos e constitui o módulo de memória no sistema de controle do corpo artificial. e precisão do conteúdo gerado. Por exemplo, o conteúdo gerado pelo modelo pode não seguir a fonte de informação ou ser inconsistente com a situação real do mundo real, resultando nas chamadas “alucinações de máquina” devido ao preconceito humano nos dados de treinamento, podendo afetar o; tomada de decisão justa de inteligência artificial, etc.
Do lado perceptual, a fim de compreender completamente as informações explícitas e implícitas em situações específicas e perceber com precisão as intenções humanas, os agentes de inteligência artificial expandem o âmbito da percepção do texto puro para campos multimodais, incluindo modos textuais, visuais e auditivos. Embora isto melhore as capacidades de tomada de decisão, pode causar uma série de fugas de privacidade e riscos de segurança de dados ao integrar e analisar dados de múltiplas fontes de diferentes canais e tipos. Por exemplo, o uso e compartilhamento indevidos de dados biométricos permanentes e altamente personalizados, como informações faciais, impressões digitais e impressões de voz, podem levar a riscos de privacidade de longo prazo ou mesmo permanentes. A fim de lidar melhor com tarefas complexas, os sistemas multiagentes que implementam múltiplos agentes artificiais para planear, cooperar e até competir para completar e melhorar o desempenho das tarefas tornar-se-ão comuns e normais. A interação sistêmica de múltiplos agentes artificiais pode causar riscos de segurança sistêmicos imprevistos. Mesmo que cada algoritmo pareça seguro e razoável quando opera sozinho, a combinação e a interação ainda podem produzir riscos completamente diferentes e imprevisíveis que podem evoluir e aumentar rapidamente. Por exemplo, no mercado de ações, se a inteligência artificial for amplamente utilizada e vários algoritmos identificarem automaticamente pequenas alterações nos preços das ações e executarem simultaneamente um grande número de transações de alta frequência para arbitragem, isso poderá desencadear um incidente de segurança sistémico, como um flash crash. no mercado de ações.
No lado móvel, os agentes artificiais implantados em ambientes físicos reais provavelmente serão apresentados numa imagem mais tridimensional e antropomórfica. Diferente do espaço virtual, o espaço real depende de métodos de aprendizagem interativos. Os agentes de inteligência artificial precisam de uma percepção de informações rica e abrangente para observar, aprender e agir. Por meio de capacidades de otimização de aprendizagem baseadas em feedback, isso pode constituir uma abordagem abrangente e intrusiva à privacidade pessoal. . Os riscos do sexo e da invisibilidade. Por exemplo, interpretar a linguagem corporal dos utilizadores e detectar atividades mais complexas dos utilizadores, e continuar a recolher dados secretamente sem autorização do utilizador, pode levar a enormes riscos de segurança de dados, uma vez que existe uma vulnerabilidade de segurança no sistema. Além disso, à medida que a autonomia da inteligência artificial continua a aumentar, ela pode não só interferir e afectar a cognição e as emoções humanas, mas também desafiar as capacidades e o estatuto dos seres humanos como decisores independentes e actores independentes. Por exemplo, alguns chatbots produzem resultados que afetam as emoções dos utilizadores durante as interações com os utilizadores, por vezes de uma forma negativa e manipuladora.
Face aos riscos e desafios trazidos pelos agentes de inteligência artificial, para que o comportamento dos agentes artificiais esteja em conformidade com as intenções e valores humanos, é necessário explorar soluções de governação inovadoras para garantir que o sistema de supervisão de segurança da inteligência artificial seja eficaz. O desenvolvimento da inteligência artificial está em um período crítico de “zero a um”. O plano de governação deve ter a capacidade de permanecer inalterado em resposta às mudanças em constante mudança, garantindo que o desenvolvimento e a aplicação da tecnologia estejam sempre num caminho controlável. O desenvolvimento, treinamento, implantação, operação e serviço de agentes de inteligência artificial passaram por uma divisão de trabalho altamente especializada, formando uma estrutura hierárquica complexa. Cada camada possui diferentes participantes, stakeholders e potenciais fatores de risco, conferindo às entidades de inteligência artificial as características de uma cadeia industrial “modular”. Portanto, pode ser construída uma estrutura de governança modular que cubra toda a cadeia da indústria e cada camada final, e os módulos de governança correspondentes são projetados a partir de nós-chave, como módulos de dados, módulos de algoritmos e arquiteturas de modelo. Por exemplo, no processo de implementação, diferentes módulos de governação podem ser seleccionados de forma flexível e combinados de forma colaborativa de acordo com as características do cenário de aplicação e do modo de implementação para construir uma solução de governação correspondente. O quadro de governação modular proporciona um método de decomposição operável. Ao decompor os objectivos de governação em módulos de governação relativamente independentes, mas acoplados, promove gradualmente a formação de um sistema de governação, que não só melhora a flexibilidade e a pertinência da governação, mas também melhora a flexibilidade e a pertinência. de governação. Também pode adaptar-se a iterações rápidas da tecnologia. Ao construir módulos de governação baseados em dimensões como dados, algoritmos, modelos e cenários, a tecnologia deve ser utilizada para capacitar a supervisão e criar ferramentas de governação inteligentes que sejam compatíveis com o quadro de governação modular das entidades de inteligência artificial, colmatando assim a dinâmica de risco e a tensão. entre a estática regulatória permite uma governança precisa de cenários específicos de alto risco.
É necessário construir um ecossistema de governação interativo para entidades de inteligência artificial. Os agentes de inteligência artificial são profundamente interativos, altamente interconectados e dinamicamente adaptáveis. Assim, os métodos de governação devem transcender a governação tradicional centrada no indivíduo e promover a formação de um ecossistema de governação com ampla interconexão, participação multipartidária e colaboração a vários níveis. Entre eles, as comunidades técnicas, tais como os desenvolvedores técnicos e o pessoal de operação e manutenção, desempenharão um papel vital de “denunciantes” na governação das entidades de inteligência artificial. As vantagens de supervisão da comunidade técnica deveriam ser melhor utilizadas para construir um mecanismo de restrição eficaz nas empresas de inteligência artificial. Devemos também melhorar activamente a literacia digital da maioria dos utilizadores, aumentar a sua consciência sobre a utilização da inteligência artificial de forma legal, segura e responsável, alcançar uma interacção positiva com a inteligência artificial e promover a formação de um estado operacional ascendente e bom.