PII Masker — это усовершенствованный инструмент с открытым исходным кодом, который защищает ваши конфиденциальные данные с помощью современного искусственного интеллекта на базе DeBERTa-v3.
Возможности • Установка • Быстрый старт • Как это работает • Участие
PII Masker — это усовершенствованный инструмент с открытым исходным кодом, предназначенный для защиты ваших конфиденциальных данных с использованием передовых моделей искусственного интеллекта. Этот инструмент, созданный на базе DeBERTa-v3, обеспечивает высокоточное обнаружение и маскирование личной информации (PII), что делает его идеальным для любых рабочих процессов, чувствительных к данным. Независимо от того, обрабатываете ли вы данные клиентов, выполняете анализ данных или обеспечиваете соблюдение правил конфиденциальности, PII Masker предоставляет надежное масштабируемое решение для обеспечения безопасности вашей информации.
При работе с конфиденциальной информацией крайне важно использовать инструменты, которые не только хорошо работают, но также обеспечивают соответствие требованиям и защищают конфиденциальность. Вот чем выделяется PII Masker:
git clone https://github.com/yourusername/pii-masker.git
cd pii-masker
pip install -r requirements.txt
# Option 1: Manual download
# Visit: https://huggingface.co/collections/hydroxai/pii-models-674649fea0de7ab99ed11347
# Place files in: pii-masker/output_model/deberta3base_1024/
pii-masker
: cd pii-masker
from model import PIIMasker
# Initialize the PIIMasker
masker = PIIMasker ()
# Mask PII in your text
text = "John Doe lives at 1234 Elm St."
masked_text , pii_dict = masker . mask_pii ( text )
print ( masked_text )
# Output: "[NAME] lives at [ADDRESS]"
PII Masker использует сложный конвейер на базе DeBERTa-v3:
Мы рады объявить о значительном дополнении к проекту PII Masker: новой модели с подходом, отличным от DeBERTa. Вот подробности:
? Ссылка на модель:
Hydroxai/pii_model_longtransfomer_version
Деталь модели:
train_pii_longtransformer.ipynb
? Улучшение производительности:
Эта новая реализация модели привела к повышению производительности примерно на 4% по сравнению с предыдущей моделью DeBERTa-v3. Сочетание увеличенной длины последовательности Longformer (4096 токенов) и головки Bi-LSTM улучшает понимание последовательного контекста, делая обнаружение PII более точным и надежным.
Посмотрите наши подробные примеры:
Благодаря вкладам сообщество открытого исходного кода становится прекрасным местом для обучения, вдохновения и творчества. Мы очень ценим любой ваш вклад.
git commit -m 'Add some AmazingFeature'
)git push origin feature/AmazingFeature
)Особая благодарность:
Сделано с ❤️ для сообщества разработчиков, заботящихся о конфиденциальности.