lora instruct
1.0.0
该存储库包含使用低秩适应 (LoRA) 微调许可型开源 LLM 的代码。
代码使用斯坦福羊驼数据集进行测试。
灵感来自羊驼-LoRA
模型 | 跑步 | 训练时间 | 关联 |
---|---|---|---|
骆驼3B | ⬜ | ||
美洲驼7B | ⬜ | ||
红色睡衣3B | ✅ | 1:44:14 | |
红色睡衣7B | ✅ | 3:09:58 | |
MPT 3B | ⬜ | ||
MPT 7B | ⬜ | ||
猎鹰7B | ✅ |
Ubuntu 20.04.1 LTS (WSL2)
Driver Version: 531.41
CUDA Version: 12.1
cuDNN version: 8.5.0
安装依赖项
poetry install
要使用 NVidia 2000 系列 GPU 或更早版本进行微调,请在finetune.py
中注释掉这一行
model = prepare_model_for_int8_training ( model )
finetune.py
)该文件包含 PEFT / LoRA 仅解码模型的简单应用,以及一些与提示构建和标记化相关的代码。
用法示例:
python finetune.py
--base_model ' togethercomputer/RedPajama-INCITE-Base-7B-v0.1 '
--output_dir ' ./lora-redpajama '
我们使用 HuggingFace 的accelerate
库进行分布式训练。以下是使用两个 GPU 进行分布式训练的示例。
export WORLD_SIZE=2
export CUDA_VISIBLE_DEVICES=0,1
torchrun
--nproc_per_node=2
--master_port=1234
finetune.py
--base_model ' togethercomputer/RedPajama-INCITE-Base-7B-v0.1 '
--output_dir ' ./lora-redpajama '