MindArmour konzentriert sich auf die Sicherheits- und Datenschutzprobleme der KI. Engagiert für die Verbesserung der Sicherheit und Glaubwürdigkeit von Modellen und den Schutz der Privatsphäre der Benutzer. Es enthält hauptsächlich drei Module: das Modul für die Robustheit gegnerischer Proben, das Modul für Fuzz-Tests und das Modul zum Schutz und zur Bewertung der Privatsphäre.
Das Modul „Robustheit gegnerischer Beispiele“ wird verwendet, um die Robustheit des Modells gegenüber gegnerischen Beispielen zu bewerten, und stellt Methoden zur Modellverbesserung bereit, um die Fähigkeit des Modells, Angriffen gegnerischer Beispiele zu widerstehen, zu verbessern und die Robustheit des Modells zu verbessern. Das Robustheitsmodul für gegnerische Proben enthält vier Untermodule: Generierung gegnerischer Proben, Erkennung gegnerischer Proben, Modellverteidigung sowie Angriffs- und Verteidigungsbewertung.
Das Architekturdiagramm des Moduls zur Robustheit gegnerischer Stichproben sieht wie folgt aus:
Das Fuzz-Testmodul ist ein Sicherheitstest für KI-Modelle. Basierend auf den Merkmalen des neuronalen Netzwerks wird die Neuronenabdeckung als Leitfaden für Fuzz-Tests eingeführt und führt den Fuzzer dazu, Proben in Richtung einer zunehmenden Neuronenabdeckung zu generieren, sodass die Eingabe erfolgt kann mehr Neuronen mit einer breiteren Verteilung der Neuronenwerte aktivieren, um neuronale Netze vollständig zu testen und verschiedene Arten von Modellausgabeergebnissen und fehlerhaften Verhaltensweisen zu untersuchen.
Das Architekturdiagramm des Fuzz-Testing-Moduls sieht wie folgt aus
Das Datenschutzmodul umfasst differenzielles Datenschutztraining und die Bewertung von Datenschutzlecks.
Das differenzielle Datenschutztraining umfasst dynamische oder nichtdynamische differenzielle Datenschutz-SGD-, Momentum- und Adam-Optimierer. Der Rauschmechanismus unterstützt Gaußsches Verteilungsrauschen und die Überwachung des differenziellen Datenschutzbudgets umfasst ZCDP und RDP.
Das Architekturdiagramm der differenziellen Privatsphäre sieht wie folgt aus
Das Modul zur Bewertung von Datenschutzlecks wird verwendet, um das Risiko zu bewerten, dass das Modell die Privatsphäre der Benutzer preisgibt. Die Mitgliedschaftsinferenzmethode wird verwendet, um abzuleiten, ob die Stichprobe zum Benutzertrainingsdatensatz gehört, um die Datenschutzdatensicherheit des Deep-Learning-Modells zu bewerten.
Das Rahmendiagramm des Moduls zur Bewertung von Datenschutzlecks sieht wie folgt aus: