PII Masker est un outil open source avancé qui protège vos données sensibles à l'aide d'une IA de pointe, optimisée par DeBERTa-v3.
Fonctionnalités • Installation • Démarrage rapide • Comment ça marche • Contribuer
PII Masker est un outil open source avancé conçu pour protéger vos données sensibles en tirant parti de modèles d'IA de pointe. Construit sur DeBERTa-v3, cet outil garantit une détection et un masquage de haute précision des informations personnellement identifiables (PII), ce qui en fait un ajustement parfait pour tous les flux de travail sensibles aux données. Que vous traitiez des données client, effectuiez des analyses de données ou garantissiez le respect des réglementations en matière de confidentialité, PII Masker fournit une solution robuste et évolutive pour assurer la sécurité de vos informations.
Lors du traitement d'informations sensibles, il est essentiel d'utiliser des outils qui non seulement fonctionnent bien, mais qui garantissent également la conformité et protègent la confidentialité. Voici pourquoi PII Masker se démarque :
git clone https://github.com/yourusername/pii-masker.git
cd pii-masker
pip install -r requirements.txt
# Option 1: Manual download
# Visit: https://huggingface.co/collections/hydroxai/pii-models-674649fea0de7ab99ed11347
# Place files in: pii-masker/output_model/deberta3base_1024/
pii-masker
: cd pii-masker
from model import PIIMasker
# Initialize the PIIMasker
masker = PIIMasker ()
# Mask PII in your text
text = "John Doe lives at 1234 Elm St."
masked_text , pii_dict = masker . mask_pii ( text )
print ( masked_text )
# Output: "[NAME] lives at [ADDRESS]"
PII Masker utilise un pipeline sophistiqué alimenté par DeBERTa-v3 :
Nous sommes ravis d'annoncer un ajout important au projet PII Masker : un nouveau modèle avec une approche différente de DeBERTa. Voici les détails :
? Lien du modèle :
hydroxai/pii_model_longtransfomer_version
Détail du modèle :
train_pii_longtransformer.ipynb
? Amélioration des performances :
Cette mise en œuvre d'un nouveau modèle a entraîné une amélioration des performances d'environ 4 % par rapport au modèle DeBERTa-v3 précédent. La combinaison de la longueur de séquence étendue de Longformer (4 096 jetons) et de la tête Bi-LSTM améliore la compréhension du contexte séquentiel, rendant la détection des PII plus précise et fiable.
Consultez nos exemples détaillés :
Les contributions font de la communauté open source un endroit formidable pour apprendre, inspirer et créer. Toutes les contributions que vous apportez sont grandement appréciées .
git commit -m 'Add some AmazingFeature'
)git push origin feature/AmazingFeature
)Un merci spécial à :
Fabriqué avec ❤️ pour la communauté des développeurs soucieux de la confidentialité