Новое исследование Google DeepMind показывает двойное влияние состязательных атак на искусственный интеллект и человеческое суждение. Исследования показали, что даже обученные модели ИИ подвержены тщательно продуманному вмешательству (состязательным возмущениям), что приводит к неправильной классификации изображений, и эта ошибка также может повлиять на человеческое суждение. Это вызывает обеспокоенность по поводу безопасности и надежности систем ИИ и подчеркивает необходимость дальнейших исследований систем видения ИИ и механизмов человеческого восприятия.
В статье основное внимание уделяется:
Последние исследования Google DeepMind показывают, что состязательные атаки не только эффективны против искусственного интеллекта, но и влияют на человеческое суждение. Нейронные сети чувствительны к враждебным возмущениям, из-за которых и люди, и ИИ неправильно классифицируют изображения. Этот результат исследования предполагает, что нам необходимо глубже понять сходства и различия между поведением визуальных систем искусственного интеллекта и человеческим восприятием, чтобы построить более безопасные системы искусственного интеллекта.
Это исследование подчеркивает необходимость создания более надежных и безопасных систем искусственного интеллекта. Будущие исследования должны быть сосредоточены на том, как улучшить способность моделей ИИ противостоять помехам и как лучше понять когнитивные различия между людьми и ИИ в условиях состязательных атак, чтобы обеспечить теоретическую основу и техническую поддержку для разработки более надежных технологий ИИ. . Только таким образом можно обеспечить безопасное и надежное применение технологий искусственного интеллекта и избежать потенциальных рисков.