Недавно в сфере сетевой безопасности появилась новая угроза: вредоносные модели машинного обучения. Исследователи обнаружили на платформе Hugging Face 100 таких моделей, которые могут использоваться для внедрения вредоносного кода на пользовательские устройства и выполнения вредоносных операций с использованием таких технологий, как PyTorch. Это подчеркивает серьезные проблемы, стоящие перед областью безопасности ИИ, и напоминает нам о необходимости сохранять бдительность в отношении безопасности моделей ИИ. Появление вредоносных моделей ИИ не только влияет на безопасность пользовательских данных, но также может вызвать более широкие системные риски. Отрасли необходимо работать вместе над усилением механизмов аудита и защиты моделей ИИ.
Исследователи обнаружили 100 вредоносных моделей машинного обучения на платформе Hugging Face AI, которые могут позволить злоумышленникам внедрять вредоносный код на компьютеры пользователей. Вредоносные модели ИИ используют такие методы, как PyTorch, для выполнения вредоносного кода, что усугубляет риски безопасности. Чтобы снизить риски, разработчикам ИИ следует использовать новые инструменты для повышения безопасности моделей ИИ. Обнаруженные вредоносные модели подчеркивают риски, связанные с вредоносными моделями ИИ для пользовательской среды, требующие постоянной бдительности и повышенной безопасности.Проблемы безопасности ИИ становятся все более заметными, требуя от разработчиков ИИ, поставщиков платформ и пользователей совместной работы над созданием более полного механизма безопасности для совместной борьбы с рисками, создаваемыми вредоносными моделями ИИ. Только усилив проверку безопасности моделей и разработав более эффективные технологии обнаружения и защиты, мы сможем обеспечить безопасность пользователей и способствовать здоровому развитию технологий искусственного интеллекта. Только благодаря многостороннему сотрудничеству мы сможем построить более безопасную и надежную экологическую среду искусственного интеллекта.