MindArmour se centra en las cuestiones de seguridad y privacidad de la IA. Comprometidos con mejorar la seguridad y credibilidad de los modelos y proteger la privacidad de los datos de los usuarios. Contiene principalmente 3 módulos: módulo de robustez de muestra adversaria, módulo de prueba Fuzz y módulo de evaluación y protección de la privacidad.
El módulo de robustez de ejemplos contradictorios se utiliza para evaluar la solidez del modelo frente a ejemplos contradictorios y proporciona métodos de mejora del modelo para mejorar la capacidad del modelo para resistir ataques de ejemplos contradictorios y mejorar la solidez del modelo. El módulo de robustez de muestras adversarias contiene cuatro submódulos: generación de muestras adversarias, detección de muestras adversarias, defensa del modelo y evaluación de ataque y defensa.
El diagrama de arquitectura del módulo de robustez de la muestra adversaria es el siguiente:
El módulo Fuzz Testing es una prueba de seguridad para modelos de IA. De acuerdo con las características de la red neuronal, la cobertura neuronal se introduce como una guía para las pruebas Fuzz, guiando al Fuzzer para generar muestras en la dirección de aumentar la cobertura neuronal, de modo que la entrada. Puede activar más neuronas, con una distribución más amplia de valores de neuronas para probar completamente las redes neuronales y explorar diferentes tipos de resultados de salida del modelo y comportamientos erróneos.
El diagrama de arquitectura del módulo Fuzz Testing es el siguiente
El módulo de protección de la privacidad incluye formación diferencial en privacidad y evaluación de fugas de privacidad.
El entrenamiento de privacidad diferencial incluye optimizadores de privacidad diferencial SGD, Momentum y Adam dinámicos o no dinámicos. El mecanismo de ruido admite ruido de distribución gaussiano y el monitoreo del presupuesto de privacidad diferencial incluye ZCDP y RDP.
El diagrama de arquitectura de privacidad diferencial es el siguiente
El módulo de evaluación de fugas de privacidad se utiliza para evaluar el riesgo de que el modelo filtre la privacidad del usuario. El método de inferencia de membresía se utiliza para inferir si la muestra pertenece al conjunto de datos de capacitación del usuario para evaluar la seguridad de los datos de privacidad del modelo de aprendizaje profundo.
El diagrama marco del módulo de evaluación de fugas de privacidad es el siguiente: