MindArmour は、AI のセキュリティとプライバシーの問題に焦点を当てています。モデルのセキュリティと信頼性を強化し、ユーザーのデータプライバシーを保護することに尽力します。これには主に、敵対的サンプルの堅牢性モジュール、ファズ テスト モジュール、プライバシー保護および評価モジュールの 3 つのモジュールが含まれています。
敵対的サンプルの堅牢性モジュールは、敵対的サンプルに対するモデルの堅牢性を評価するために使用され、敵対的サンプルの攻撃に抵抗するモデルの能力を強化し、モデルの堅牢性を向上させるモデル強化方法を提供します。敵対的サンプルの堅牢性モジュールには、敵対的サンプルの生成、敵対的サンプルの検出、モデル防御、攻撃と防御の評価の 4 つのサブモジュールが含まれています。
敵対的サンプルの堅牢性モジュールのアーキテクチャ図は次のとおりです。
ファズ テスト モジュールは、ニューラル ネットワークの特性に従って、ニューロン カバレッジがファズ テストのガイドとして導入され、ニューロン カバレッジが増加する方向にサンプルを生成するようにファザーを誘導します。ニューロン値のより広範囲な分布を使用して、より多くのニューロンをアクティブにして、ニューラル ネットワークを完全にテストし、さまざまなタイプのモデル出力結果と誤った動作を調査できます。
Fuzz Testingモジュールのアーキテクチャ図は次のとおりです。
プライバシー保護モジュールには、差分プライバシー トレーニングとプライバシー漏洩評価が含まれています。
差分プライバシー トレーニングには、動的または非動的の差分プライバシー SGD、Momentum、および Adam オプティマイザーが含まれます。ノイズ メカニズムは、ZCDP および RDP を含む、ガウス分布ノイズとラプラス分布ノイズをサポートします。
差分プライバシーのアーキテクチャ図は次のとおりです
プライバシー漏洩評価モジュールは、モデルがユーザーのプライバシーを漏洩するリスクを評価するために使用されます。メンバーシップ推論方法は、サンプルがユーザー トレーニング データ セットに属しているかどうかを推論し、深層学習モデルのプライバシー データ セキュリティを評価するために使用されます。
プライバシー漏洩評価モジュールのフレームワーク図は次のとおりです。