lora instruct
1.0.0
此儲存庫包含使用低秩適應 (LoRA) 微調許可型開源 LLM 的程式碼。
程式碼使用斯坦福羊駝資料集進行測試。
靈感來自羊駝-LoRA
模型 | 跑步 | 訓練時間 | 關聯 |
---|---|---|---|
駱駝3B | ⬜ | ||
美洲駝7B | ⬜ | ||
紅色睡衣3B | ✅ | 1:44:14 | |
紅色睡衣7B | ✅ | 3:09:58 | |
MPT 3B | ⬜ | ||
MPT 7B | ⬜ | ||
獵鷹7B | ✅ |
Ubuntu 20.04.1 LTS (WSL2)
Driver Version: 531.41
CUDA Version: 12.1
cuDNN version: 8.5.0
安裝依賴項
poetry install
若要使用 NVidia 2000 系列 GPU 或更早版本進行微調,請在finetune.py
中註解掉這一行
model = prepare_model_for_int8_training ( model )
finetune.py
)該檔案包含 PEFT / LoRA 僅解碼模型的簡單應用,以及一些與提示建置和標記化相關的程式碼。
用法範例:
python finetune.py
--base_model ' togethercomputer/RedPajama-INCITE-Base-7B-v0.1 '
--output_dir ' ./lora-redpajama '
我們使用 HuggingFace 的accelerate
庫進行分散式訓練。以下是使用兩個 GPU 進行分散式訓練的範例。
export WORLD_SIZE=2
export CUDA_VISIBLE_DEVICES=0,1
torchrun
--nproc_per_node=2
--master_port=1234
finetune.py
--base_model ' togethercomputer/RedPajama-INCITE-Base-7B-v0.1 '
--output_dir ' ./lora-redpajama '