Uma nova pesquisa do Google DeepMind revela o duplo impacto dos ataques adversários na inteligência artificial e no julgamento humano. A pesquisa descobriu que mesmo modelos de IA treinados são suscetíveis a interferências cuidadosamente projetadas (perturbações adversárias), levando à classificação incorreta da imagem, e esse erro também pode afetar o julgamento humano. Isto levanta preocupações sobre a segurança e fiabilidade dos sistemas de IA e destaca a necessidade de mais investigação sobre sistemas de visão de IA e mecanismos de percepção humana.
O artigo se concentra em:
A pesquisa mais recente do Google DeepMind mostra que os ataques adversários não são apenas eficazes contra a inteligência artificial, mas também afetam o julgamento humano. As redes neurais são suscetíveis a perturbações adversárias, fazendo com que tanto os humanos quanto a IA classifiquem incorretamente as imagens. O resultado desta pesquisa sugere que precisamos ter uma compreensão mais profunda das semelhanças e diferenças entre o comportamento dos sistemas visuais de inteligência artificial e a percepção humana, a fim de construir sistemas de inteligência artificial mais seguros.
Esta pesquisa destaca a urgência de construir sistemas de IA mais robustos e seguros. A investigação futura precisa de se concentrar em como melhorar a capacidade anti-interferência dos modelos de IA e como compreender melhor as diferenças cognitivas entre humanos e IA sob ataques adversários, de modo a fornecer base teórica e apoio técnico para o desenvolvimento de tecnologia de IA mais fiável. . Só desta forma será possível garantir a aplicação segura e fiável da tecnologia de inteligência artificial e evitar riscos potenciais.