Команда безопасности JFrog недавно опубликовала отчет, в котором говорится, что на платформе Hugging Face существует большое количество вредоносных моделей AI ML, насчитывающее не менее 100. Риски, скрытые этими вредоносными моделями, нельзя недооценивать. Некоторые модели даже способны выполнять код на компьютере жертвы и устанавливать постоянный бэкдор, создавая серьезную угрозу безопасности пользовательских данных. Исследователи обнаружили, что вредоносные модели, созданные с использованием фреймворков PyTorch и Tensorflow Keras, такие как модель baller423, могут устанавливать обратную оболочку на целевом хосте для обеспечения удаленного управления. Хотя некоторые вредоносные модели могут быть загружены в целях исследования безопасности с целью обнаружения уязвимостей и получения наград, это не уменьшает их потенциального вреда.
Команда безопасности JFrog обнаружила не менее 100 вредоносных моделей искусственного интеллекта на платформе Hugging Face. Некоторые модели могут выполнять код на машине жертвы, обеспечивая постоянный бэкдор. Исследователи безопасности обнаружили, что на платформе существуют модели PyTorch и Tensorflow Keras с вредоносными функциями. Например, загруженная пользователями модель baller423 может установить обратную оболочку на указанном хосте. Некоторые вредоносные модели могут быть загружены в целях исследования безопасности, чтобы обнаружить уязвимости и получить вознаграждение.Платформа Hugging Face должна усилить механизм проверки загруженных моделей, чтобы эффективно предотвращать подобные угрозы безопасности. Пользователям также следует повысить свою осведомленность о безопасности и с осторожностью использовать модели ИИ из неизвестных источников, чтобы избежать вредоносных атак. Этот инцидент еще раз напоминает нам, что с развитием технологий искусственного интеллекта вопросы безопасности становятся все более заметными, и отрасли необходимо работать вместе, чтобы создать более безопасную и надежную экологическую среду ИИ.