Modification simultanée de milliers de faits dans la mémoire d'un transformateur.
Nous recommandons conda
pour gérer Python, CUDA et PyTorch ; pip
est pour tout le reste. Pour commencer, installez simplement conda
et exécutez :
CONDA_HOME= $CONDA_HOME ./scripts/setup_conda.sh
$CONDA_HOME
doit être le chemin d'accès à votre installation conda
, par exemple ~/miniconda3
.
notebooks/memit.ipynb
démontre MEMIT. L'API est simple ; précisez simplement une réécriture demandée de la forme suivante :
request = [
{
"prompt" : "{} plays the sport of" ,
"subject" : "LeBron James" ,
"target_new" : {
"str" : "football"
}
},
{
"prompt" : "{} plays the sport of" ,
"subject" : "Michael Jordan" ,
"target_new" : {
"str" : "baseball"
}
},
]
D’autres exemples similaires sont inclus dans le cahier.
experiments/evaluate.py
peut être utilisé pour évaluer n'importe quelle méthode dans baselines/
.
Par exemple:
python3 -m experiments.evaluate
--alg_name=MEMIT
--model_name=EleutherAI/gpt-j-6B
--hparams_fname=EleutherAI_gpt-j-6B.json
--num_edits=10000
--use_cache
Les résultats de chaque exécution sont stockés dans results/<method_name>/run_<run_id>
dans un format spécifique :
results/
| __ MEMIT/
| __ run_ < run_id > /
| __ params.json
| __ case_0.json
| __ case_1.json
| __ ...
| __ case_10000.json
Pour résumer les résultats, vous pouvez utiliser experiments/summarize.py
:
python3 -m experiments.summarize --dir_name=MEMIT --runs=run_ < run 1> ,run_ < run 2>
L'exécution de python3 -m experiments.evaluate -h
ou python3 -m experiments.summarize -h
fournit des détails sur les indicateurs de ligne de commande.
@article { meng2022memit ,
title = { Mass Editing Memory in a Transformer } ,
author = { Kevin Meng and Sen Sharma, Arnab and Alex Andonian and Yonatan Belinkov and David Bau } ,
journal = { arXiv preprint arXiv:2210.07229 } ,
year = { 2022 }
}