Une nouvelle recherche de Google DeepMind révèle le double impact des attaques contradictoires sur l’intelligence artificielle et le jugement humain. Des recherches ont montré que même les modèles d’IA entraînés sont sensibles à des interférences soigneusement conçues (perturbations contradictoires), conduisant à une classification incorrecte des images, et cette erreur peut également affecter le jugement humain. Cela soulève des inquiétudes quant à la sécurité et à la fiabilité des systèmes d’IA et souligne la nécessité de poursuivre les recherches sur les systèmes de vision de l’IA et les mécanismes de perception humaine.
L’article se concentre sur :
Les dernières recherches de Google DeepMind montrent que les attaques contradictoires sont non seulement efficaces contre l'intelligence artificielle, mais affectent également le jugement humain. Les réseaux de neurones sont sensibles aux perturbations contradictoires, ce qui amène les humains et l’IA à mal classer les images. Ce résultat de recherche suggère que nous devons mieux comprendre les similitudes et les différences entre le comportement des systèmes visuels d’intelligence artificielle et la perception humaine afin de construire des systèmes d’intelligence artificielle plus sûrs.
Cette recherche souligne l’urgence de créer des systèmes d’IA plus robustes et plus sécurisés. Les recherches futures doivent se concentrer sur la manière d'améliorer la capacité anti-interférence des modèles d'IA et de mieux comprendre les différences cognitives entre les humains et l'IA lors d'attaques contradictoires, afin de fournir une base théorique et un soutien technique pour le développement d'une technologie d'IA plus fiable. . Ce n’est qu’ainsi que l’application sûre et fiable de la technologie de l’intelligence artificielle peut être garantie et que les risques potentiels peuvent être évités.