A equipe de segurança do JFrog divulgou recentemente um relatório afirmando que há um grande número de modelos maliciosos de AI ML na plataforma Hugging Face, totalizando pelo menos 100. Os riscos ocultos por estes modelos maliciosos não podem ser subestimados. Alguns modelos têm até a capacidade de executar código na máquina da vítima e estabelecer uma backdoor persistente, representando uma séria ameaça à segurança dos dados do utilizador. Os pesquisadores descobriram que modelos maliciosos construídos usando as estruturas PyTorch e Tensorflow Keras, como o modelo denominado "baller423", podem estabelecer um shell reverso no host de destino para obter controle remoto. Embora alguns modelos maliciosos possam ser carregados para fins de investigação de segurança, com a intenção de descobrir vulnerabilidades e obter recompensas, isto não reduz os seus danos potenciais.
A equipe de segurança JFrog descobriu pelo menos 100 modelos maliciosos de AI ML na plataforma Hugging Face. Alguns modelos podem executar código na máquina vítima, fornecendo um backdoor persistente. Pesquisadores de segurança descobriram que existem modelos PyTorch e Tensorflow Keras com funções maliciosas na plataforma. Por exemplo, o modelo baller423 carregado pelos usuários pode estabelecer um shell reverso no host especificado. Alguns modelos maliciosos podem ser carregados para fins de pesquisa de segurança para descobrir vulnerabilidades e obter recompensas.A plataforma Hugging Face deve fortalecer o mecanismo de revisão dos modelos carregados para prevenir eficazmente tais riscos de segurança. Os usuários também devem aumentar sua conscientização sobre segurança e usar modelos de IA de fontes desconhecidas com cautela para evitar ataques maliciosos. Este incidente lembra-nos mais uma vez que, com o desenvolvimento da tecnologia de inteligência artificial, as questões de segurança tornaram-se cada vez mais proeminentes e a indústria precisa de trabalhar em conjunto para construir um ambiente ecológico de IA mais seguro e mais fiável.