El equipo de seguridad de JFrog publicó recientemente un informe que indica que hay una gran cantidad de modelos AI ML maliciosos en la plataforma Hugging Face, que suman al menos 100. No se pueden subestimar los riesgos ocultos por estos modelos maliciosos. Algunos modelos incluso tienen la capacidad de ejecutar código en la máquina de la víctima y establecer una puerta trasera persistente, lo que representa una grave amenaza para la seguridad de los datos del usuario. Los investigadores han descubierto que los modelos maliciosos creados utilizando los marcos PyTorch y Tensorflow Keras, como el modelo denominado "baller423", pueden establecer un shell inverso en el host de destino para lograr el control remoto. Aunque se pueden cargar algunos modelos maliciosos con fines de investigación de seguridad, con la intención de descubrir vulnerabilidades y obtener recompensas, esto no reduce su daño potencial.
El equipo de seguridad de JFrog descubrió al menos 100 modelos maliciosos de IA ML en la plataforma Hugging Face. Algunos modelos pueden ejecutar código en la máquina víctima, proporcionando una puerta trasera persistente. Los investigadores de seguridad han descubierto que existen modelos PyTorch y Tensorflow Keras con funciones maliciosas en la plataforma. Por ejemplo, el modelo baller423 cargado por los usuarios puede establecer un shell inverso en el host especificado. Es posible que se carguen algunos modelos maliciosos con fines de investigación de seguridad para descubrir vulnerabilidades y obtener recompensas.La plataforma Hugging Face debería fortalecer el mecanismo de revisión de los modelos cargados para prevenir eficazmente tales riesgos de seguridad. Los usuarios también deben aumentar su conciencia sobre la seguridad y utilizar modelos de IA de fuentes desconocidas con precaución para evitar ataques maliciosos. Este incidente nos recuerda una vez más que con el desarrollo de la tecnología de inteligencia artificial, los problemas de seguridad se han vuelto cada vez más prominentes y la industria necesita trabajar en conjunto para construir un entorno ecológico de IA más seguro y confiable.