PII Masker ist ein fortschrittliches Open-Source-Tool, das Ihre sensiblen Daten mithilfe modernster KI schützt, unterstützt von DeBERTa-v3
Funktionen • Installation • Schnellstart • Funktionsweise • Mitwirken
PII Masker ist ein fortschrittliches Open-Source-Tool, das zum Schutz Ihrer sensiblen Daten durch die Nutzung modernster KI-Modelle entwickelt wurde. Dieses auf DeBERTa-v3 basierende Tool gewährleistet eine hochpräzise Erkennung und Maskierung personenbezogener Daten (PII) und eignet sich somit perfekt für alle datensensiblen Arbeitsabläufe. Unabhängig davon, ob Sie Kundendaten verarbeiten, Datenanalysen durchführen oder die Einhaltung von Datenschutzbestimmungen sicherstellen, bietet PII Masker eine robuste, skalierbare Lösung, um Ihre Informationen zu schützen.
Beim Umgang mit sensiblen Informationen ist es wichtig, Tools zu verwenden, die nicht nur eine gute Leistung erbringen, sondern auch Compliance gewährleisten und die Privatsphäre schützen. Darum zeichnet sich PII Masker aus:
git clone https://github.com/yourusername/pii-masker.git
cd pii-masker
pip install -r requirements.txt
# Option 1: Manual download
# Visit: https://huggingface.co/collections/hydroxai/pii-models-674649fea0de7ab99ed11347
# Place files in: pii-masker/output_model/deberta3base_1024/
pii-masker
Verzeichnis: cd pii-masker
from model import PIIMasker
# Initialize the PIIMasker
masker = PIIMasker ()
# Mask PII in your text
text = "John Doe lives at 1234 Elm St."
masked_text , pii_dict = masker . mask_pii ( text )
print ( masked_text )
# Output: "[NAME] lives at [ADDRESS]"
PII Masker verwendet eine hochentwickelte Pipeline, die auf DeBERTa-v3 basiert:
Wir freuen uns, eine bedeutende Ergänzung des PII Masker-Projekts bekannt zu geben: ein neues Modell mit einem anderen Ansatz als DeBERTa. Hier die Details:
? Modelllink:
hydroxai/pii_model_longtransfomer_version
Modelldetail:
train_pii_longtransformer.ipynb
? Leistungsverbesserung:
Diese neue Modellimplementierung hat zu einer Leistungsverbesserung von etwa 4 % im Vergleich zum vorherigen DeBERTa-v3-Modell geführt. Die Kombination aus der erweiterten Sequenzlänge von Longformer (4096 Token) und dem Bi-LSTM-Kopf verbessert das sequentielle Kontextverständnis und macht die PII-Erkennung genauer und zuverlässiger.
Schauen Sie sich unsere detaillierten Beispiele an:
Beiträge machen die Open-Source-Community zu einem wunderbaren Ort zum Lernen, Inspirieren und Schaffen. Jeder Beitrag, den Sie leisten, wird sehr geschätzt .
git commit -m 'Add some AmazingFeature'
)git push origin feature/AmazingFeature
)Besonderer Dank geht an:
Mit ❤️ für die datenschutzbewusste Entwickler-Community erstellt