MindArmour se concentre sur les problèmes de sécurité et de confidentialité de l'IA. Engagé à améliorer la sécurité et la crédibilité des modèles et à protéger la confidentialité des données des utilisateurs. Il contient principalement 3 modules : le module de robustesse des échantillons contradictoires, le module Fuzz Testing et le module de protection et d'évaluation de la confidentialité.
Le module de robustesse des exemples contradictoires est utilisé pour évaluer la robustesse du modèle par rapport aux exemples contradictoires et fournit des méthodes d'amélioration du modèle pour améliorer la capacité du modèle à résister aux attaques d'exemples contradictoires et à améliorer la robustesse du modèle. Le module de robustesse des échantillons contradictoires contient quatre sous-modules : génération d'échantillons contradictoires, détection d'échantillons contradictoires, défense du modèle et évaluation des attaques et de la défense.
Le schéma d'architecture du module de robustesse des échantillons contradictoires est le suivant :
Le module Fuzz Testing est un test de sécurité pour les modèles d'IA. Selon les caractéristiques du réseau neuronal, la couverture neuronale est introduite comme guide pour les tests Fuzz, guidant le Fuzzer pour générer des échantillons dans le sens d'une couverture neuronale croissante, de sorte que l'entrée. peut activer plus de neurones, avec une distribution plus large de valeurs de neurones pour tester pleinement les réseaux de neurones et explorer différents types de résultats de sortie de modèle et de comportements erronés.
Le schéma d'architecture du module Fuzz Testing est le suivant
Le module de protection de la vie privée comprend une formation différentielle sur la confidentialité et une évaluation des fuites de confidentialité.
La formation de confidentialité différentielle inclut les optimiseurs de confidentialité différentielle dynamiques ou non dynamiques SGD, Momentum et Adam. Le mécanisme de bruit prend en charge le bruit de distribution gaussienne et la surveillance du budget de confidentialité différentielle inclut ZCDP et RDP.
Le schéma d'architecture de la confidentialité différentielle est le suivant
Le module d'évaluation des fuites de confidentialité est utilisé pour évaluer le risque de fuite du modèle dans la confidentialité des utilisateurs. La méthode d'inférence d'appartenance est utilisée pour déduire si l'échantillon appartient à l'ensemble de données de formation utilisateur afin d'évaluer la sécurité des données de confidentialité du modèle d'apprentissage en profondeur.
Le schéma-cadre du module d’évaluation des fuites de confidentialité est le suivant :