Neue Untersuchungen von Google DeepMind zeigen die doppelte Wirkung gegnerischer Angriffe auf künstliche Intelligenz und menschliches Urteilsvermögen. Untersuchungen haben ergeben, dass selbst trainierte KI-Modelle anfällig für sorgfältig konzipierte Störungen (kontroverse Störungen) sind, die zu einer falschen Bildklassifizierung führen, und dieser Fehler kann auch das menschliche Urteilsvermögen beeinträchtigen. Dies wirft Bedenken hinsichtlich der Sicherheit und Zuverlässigkeit von KI-Systemen auf und unterstreicht die Notwendigkeit weiterer Forschung zu KI-Sichtsystemen und menschlichen Wahrnehmungsmechanismen.
Der Artikel konzentriert sich auf:
Die neuesten Untersuchungen von Google DeepMind zeigen, dass gegnerische Angriffe nicht nur gegen künstliche Intelligenz wirksam sind, sondern auch das menschliche Urteilsvermögen beeinträchtigen. Neuronale Netze sind anfällig für störende Störungen, die dazu führen, dass sowohl Menschen als auch KI Bilder falsch klassifizieren. Dieses Forschungsergebnis legt nahe, dass wir ein tieferes Verständnis der Ähnlichkeiten und Unterschiede zwischen dem Verhalten visueller Systeme mit künstlicher Intelligenz und der menschlichen Wahrnehmung benötigen, um sicherere Systeme mit künstlicher Intelligenz aufzubauen.
Diese Forschung unterstreicht die Dringlichkeit, robustere und sicherere KI-Systeme aufzubauen. Zukünftige Forschung muss sich darauf konzentrieren, wie die Anti-Interferenz-Fähigkeit von KI-Modellen verbessert werden kann und wie die kognitiven Unterschiede zwischen Menschen und KI bei gegnerischen Angriffen besser verstanden werden können, um theoretische Grundlagen und technische Unterstützung für die Entwicklung zuverlässigerer KI-Technologie bereitzustellen . Nur so kann der sichere und zuverlässige Einsatz der Technologie der Künstlichen Intelligenz gewährleistet und potenzielle Risiken vermieden werden.