JFrog セキュリティ チームは最近、Hugging Face プラットフォーム上に多数の悪意のある AI ML モデルが存在し、その数は少なくとも 100 であると報告書を発表しました。これらの悪意のあるモデルに隠されたリスクを過小評価することはできません。一部のモデルは、被害者のマシン上でコードを実行し、永続的なバックドアを確立する機能を備えており、ユーザー データのセキュリティに深刻な脅威をもたらします。研究者らは、「baller423」という名前のモデルなど、PyTorch および Tensorflow Keras フレームワークを使用して構築された悪意のあるモデルが、ターゲット ホスト上でリバース シェルを確立してリモート コントロールを実現できることを発見しました。一部の悪意のあるモデルは、脆弱性を発見して報奨金を獲得することを目的として、セキュリティ調査目的でアップロードされる場合がありますが、これによって潜在的な被害が軽減されるわけではありません。
JFrog セキュリティ チームは、Hugging Face プラットフォーム上で少なくとも 100 の悪意のある AI ML モデルを発見しました。一部のモデルは被害者のマシン上でコードを実行し、永続的なバックドアを提供できます。セキュリティ研究者は、プラットフォーム上に悪意のある機能を備えた PyTorch モデルと Tensorflow Keras モデルが存在することを発見しました。たとえば、ユーザーがアップロードした baller423 モデルは、指定されたホスト上でリバース シェルを確立できる可能性があります。一部の悪意のあるモデルは、脆弱性を発見して報奨金を獲得するためのセキュリティ調査目的でアップロードされる場合があります。このようなセキュリティリスクを効果的に防ぐために、Hugging Face プラットフォームはアップロードされたモデルのレビューメカニズムを強化する必要があります。また、ユーザーはセキュリティ意識を高め、悪意のある攻撃を避けるために未知のソースからの AI モデルを慎重に使用する必要があります。 この事件は、人工知能技術の発展に伴い、セキュリティの問題がますます顕著になり、業界が協力してより安全で信頼性の高いAI生態環境を構築する必要があることを改めて思い出させます。