JFrog安全团队近日发布报告,指出Hugging Face平台上存在大量恶意AI ML模型,数量至少达100个。这些恶意模型潜藏的风险不容小觑,部分模型甚至具备在受害者机器上执行代码、建立持久后门的能力,对用户数据安全造成严重威胁。研究人员已发现利用PyTorch和Tensorflow Keras框架构建的恶意模型,例如名为“baller423”的模型能够在目标主机上建立反向shell,实现远程控制。虽然部分恶意模型可能出于安全研究目的上传,意在发现漏洞并获取赏金,但这并不减轻其潜在危害。
JFrog安全团队在Hugging Face平台上发现了至少100个恶意AI ML模型。部分模型可以在受害者机器上执行代码,提供持久后门。安全研究人员发现平台上存在恶意功能的PyTorch和Tensorflow Keras模型,如用户上传的baller423模型能在指定主机上建立反向shell。部分恶意模型可能出于安全研究目的上传,以发现漏洞获取赏金。Hugging Face平台应加强对上传模型的审核机制,以有效防范此类安全风险。用户也应提高安全意识,谨慎使用来自不明来源的AI模型,避免遭受恶意攻击。 这起事件再次提醒我们,人工智能技术发展的同时,安全问题也日益凸显,需要业界共同努力,构建更加安全可靠的AI生态环境。