interpret lm knowledge
1.0.0
الفكرة : كيف نفسر ما يتعلمه النموذج اللغوي في مراحل التدريب المختلفة؟ تم وصف النماذج اللغوية مؤخرًا على أنها قواعد معرفية مفتوحة. يمكننا إنشاء رسوم بيانية معرفية عن طريق استخراج العلاقات الثلاثية من نماذج اللغة المقنعة في العصور المتسلسلة أو المتغيرات المعمارية لفحص عملية اكتساب المعرفة.
مجموعة البيانات : Squad، Google-RE (3 نكهات)
النماذج : BERT، RoBeRTa، DistilBert، تدريب RoBERTa من الصفر
المؤلفون : فينيترا سوامي، أنجليكا رومانو، مارتن جاجي
هذا المستودع هو التنفيذ الرسمي لورقة NeurIPS 2021 XAI4Debugging بعنوان "تفسير نماذج اللغة من خلال استخراج الرسم البياني المعرفي". وجدت هذا العمل مفيدا؟ يرجى ذكر ورقتنا.
git clone https://github.com/epfml/interpret-lm-knowledge.git
pip install git+https://github.com/huggingface/transformers
pip install textacy
cd interpret-lm-knowledge/scripts
python run_knowledge_graph_experiments.py <dataset> <model> <use_spacy>
squad Bert spacy
re-place-birth Roberta
المعلمات الاختيارية:
dataset=squad - "squad", "re-place-birth", "re-date-birth", "re-place-death"
model=Roberta - "Bert", "Roberta", "DistilBert"
extractor=spacy - "spacy", "textacy", "custom"
راجع run_lm_experiments notebook
للحصول على أمثلة.
!pip install git+https://github.com/huggingface/transformers
!pip list | grep -E 'transformers|tokenizers'
!pip install textacy
wikipedia_train_from_scratch_lm.ipynb
. from run_training_kg_experiments import *
run_experiments(tokenizer, model, unmasker, "Roberta3e")
@inproceedings { swamy2021interpreting ,
author = { Swamy, Vinitra and Romanou, Angelika and Jaggi, Martin } ,
booktitle = { Advances in Neural Information Processing Systems (NeurIPS), 1st Workshop on eXplainable AI Approaches for Debugging and Diagnosis } ,
title = { Interpreting Language Models Through Knowledge Graph Extraction } ,
year = { 2021 }
}