lora instruct
1.0.0
このリポジトリには、低ランク適応 (LoRA) を使用して寛容なオープンソース LLM を微調整するためのコードが含まれています。
コードは Stanford Alpaca データセットを使用してテストされます。
アルパカ LoRA からインスピレーションを得た
モデル | 走る | トレーニング時間 | リンク |
---|---|---|---|
ラマ 3B | ⬜ | ||
ラマ 7B | ⬜ | ||
レッドパジャマ 3B | ✅ | 1:44:14 | |
レッドパジャマ 7B | ✅ | 3:09:58 | |
MPT 3B | ⬜ | ||
MPT 7B | ⬜ | ||
ファルコン7B | ✅ |
Ubuntu 20.04.1 LTS (WSL2)
Driver Version: 531.41
CUDA Version: 12.1
cuDNN version: 8.5.0
依存関係をインストールする
poetry install
NVidia 2000 シリーズ以前の GPU を使用して微調整するには、 finetune.py
のこの行をコメントアウトしてください。
model = prepare_model_for_int8_training ( model )
finetune.py
)このファイルには、デコーダのみのモデルへの PEFT / LoRA の直接的なアプリケーションと、プロンプトの構築とトークン化に関連するコードが含まれています。
使用例:
python finetune.py
--base_model ' togethercomputer/RedPajama-INCITE-Base-7B-v0.1 '
--output_dir ' ./lora-redpajama '
分散トレーニングには HuggingFace のaccelerate
ライブラリを使用します。以下は 2 つの GPU を使用した分散トレーニングの例です。
export WORLD_SIZE=2
export CUDA_VISIBLE_DEVICES=0,1
torchrun
--nproc_per_node=2
--master_port=1234
finetune.py
--base_model ' togethercomputer/RedPajama-INCITE-Base-7B-v0.1 '
--output_dir ' ./lora-redpajama '