interpret lm knowledge
1.0.0
แนวคิด : เราจะตีความสิ่งที่โมเดลภาษาเรียนรู้ในขั้นตอนต่างๆ ของการฝึกอบรมได้อย่างไร แบบจำลองภาษาได้รับการอธิบายเมื่อเร็วๆ นี้ว่าเป็นฐานความรู้แบบเปิด เราสามารถสร้างกราฟความรู้โดยการแยกความสัมพันธ์สามเท่าจากแบบจำลองภาษาที่ปกปิดในยุคลำดับหรือรูปแบบสถาปัตยกรรมเพื่อตรวจสอบกระบวนการได้มาซึ่งความรู้
ชุดข้อมูล : Squad, Google-RE (3 รสชาติ)
โมเดล : BERT, RoBeRTa, DistilBert, ฝึกอบรม RoBERTa ตั้งแต่เริ่มต้น
ผู้แต่ง : วินิทรา สวามี, แองเจลิกา โรมานู, มาร์ติน จักกี
พื้นที่เก็บข้อมูลนี้เป็นการใช้งานอย่างเป็นทางการของรายงาน NeurIPS 2021 XAI4Debugging ที่มีชื่อว่า "การตีความโมเดลภาษาผ่านการดึงกราฟความรู้" พบว่างานนี้มีประโยชน์หรือไม่? กรุณาอ้างอิงเอกสารของเรา
git clone https://github.com/epfml/interpret-lm-knowledge.git
pip install git+https://github.com/huggingface/transformers
pip install textacy
cd interpret-lm-knowledge/scripts
python run_knowledge_graph_experiments.py <dataset> <model> <use_spacy>
squad Bert spacy
re-place-birth Roberta
พารามิเตอร์เสริม:
dataset=squad - "squad", "re-place-birth", "re-date-birth", "re-place-death"
model=Roberta - "Bert", "Roberta", "DistilBert"
extractor=spacy - "spacy", "textacy", "custom"
ดูตัวอย่าง run_lm_experiments notebook
!pip install git+https://github.com/huggingface/transformers
!pip list | grep -E 'transformers|tokenizers'
!pip install textacy
wikipedia_train_from_scratch_lm.ipynb
from run_training_kg_experiments import *
run_experiments(tokenizer, model, unmasker, "Roberta3e")
@inproceedings { swamy2021interpreting ,
author = { Swamy, Vinitra and Romanou, Angelika and Jaggi, Martin } ,
booktitle = { Advances in Neural Information Processing Systems (NeurIPS), 1st Workshop on eXplainable AI Approaches for Debugging and Diagnosis } ,
title = { Interpreting Language Models Through Knowledge Graph Extraction } ,
year = { 2021 }
}