MindArmour는 AI의 보안 및 개인 정보 보호 문제에 중점을 둡니다. 모델의 보안과 신뢰성을 강화하고 사용자의 데이터 개인정보 보호를 위해 최선을 다합니다. 여기에는 주로 적대적 샘플 견고성 모듈, Fuzz 테스트 모듈, 개인 정보 보호 및 평가 모듈의 3가지 모듈이 포함되어 있습니다.
적대적 예시 견고성 모듈은 적대적 예시에 대한 모델의 견고성을 평가하는 데 사용되며, 적대적 예시 공격에 저항하고 모델 견고성을 향상시키는 모델의 능력을 향상시키는 모델 강화 방법을 제공합니다. 적대적 샘플 견고성 모듈에는 적대적 샘플 생성, 적대적 샘플 탐지, 모델 방어, 공격 및 방어 평가 등 4개의 하위 모듈이 포함되어 있습니다.
적대적 샘플 견고성 모듈의 아키텍처 다이어그램은 다음과 같습니다.
Fuzz Testing 모듈은 AI 모델에 대한 보안 테스트로, 신경망의 특성에 따라 Fuzz 테스트를 위한 가이드로 뉴런 커버리지가 도입되어 Fuzzer가 뉴런 커버리지를 늘리는 방향으로 샘플을 생성하도록 안내하여 입력이 가능하도록 합니다. 더 넓은 뉴런 값 분포를 통해 더 많은 뉴런을 활성화하여 신경망을 완전히 테스트하고 다양한 유형의 모델 출력 결과와 잘못된 동작을 탐색할 수 있습니다.
Fuzz Testing 모듈의 아키텍처 다이어그램은 다음과 같습니다.
개인 정보 보호 모듈에는 개인 정보 차등 교육 및 개인 정보 유출 평가가 포함됩니다.
차등 개인 정보 보호 훈련에는 동적 또는 비동적 차등 개인 정보 보호 SGD, Momentum 및 Adam 최적화 도구가 포함됩니다. 노이즈 메커니즘은 가우스 분포 노이즈와 Laplace 분포 노이즈를 지원합니다. 차등 개인 정보 보호 예산 모니터링에는 ZCDP 및 RDP가 포함됩니다.
차등 프라이버시의 아키텍처 다이어그램은 다음과 같습니다.
개인 정보 유출 평가 모듈은 모델이 사용자 개인 정보를 유출할 위험을 평가하는 데 사용됩니다. 멤버십 추론 방법은 딥러닝 모델의 개인 정보 보호 데이터 보안을 평가하기 위해 샘플이 사용자 훈련 데이터 세트에 속하는지 추론하는 데 사용됩니다.
개인정보 유출 평가 모듈의 프레임워크 다이어그램은 다음과 같습니다.