JFrog安全團隊最近發布報告,指出Hugging Face平台上存在大量惡意AI ML模型,數量至少達100個。這些惡意模型潛藏的風險不容小覷,部分模型甚至具備在受害者機器上執行程式碼、建立持久後門的能力,對使用者資料安全造成嚴重威脅。研究人員發現利用PyTorch和Tensorflow Keras框架建構的惡意模型,例如名為「baller423」的模型能夠在目標主機上建立反向shell,以實現遠端控制。雖然部分惡意模型可能出於安全研究目的上傳,意在發現漏洞並獲取賞金,但這並不減輕其潛在危害。
JFrog安全團隊在Hugging Face平台上發現了至少100個惡意AI ML模型。部分模型可以在受害者機器上執行程式碼,提供持久後門。安全研究人員發現平台上有惡意功能的PyTorch和Tensorflow Keras模型,如使用者上傳的baller423模型能在指定主機上建立反向shell。部分惡意模型可能出於安全研究目的上傳,以發現漏洞獲取賞金。Hugging Face平台應加強對上傳模式的審核機制,以有效防範此類安全風險。使用者也應提高安全意識,謹慎使用來自不明來源的AI模型,避免遭受惡意攻擊。 這起事件再次提醒我們,人工智慧技術發展的同時,安全問題也日益凸顯,需要業界共同努力,建構更安全可靠的AI生態環境。