lora instruct
1.0.0
Repositori ini berisi kode untuk menyempurnakan LLM sumber terbuka permisif menggunakan adaptasi peringkat rendah (LoRA).
Kode diuji menggunakan dataset Stanford Alpaca.
Terinspirasi oleh Alpaca-LoRA
Model | Berjalan | Waktu Pelatihan | Link |
---|---|---|---|
LLaMA 3B | ⬜ | ||
LLaMA 7B | ⬜ | ||
Piyama Merah 3B | ✅ | 1:44:14 | |
Piyama Merah 7B | ✅ | 3:09:58 | |
MPT 3B | ⬜ | ||
MPT 7B | ⬜ | ||
Elang 7B | ✅ |
Ubuntu 20.04.1 LTS (WSL2)
Driver Version: 531.41
CUDA Version: 12.1
cuDNN version: 8.5.0
Instal dependensi
poetry install
Untuk menyempurnakan penggunaan GPU seri NVidia 2000 atau versi lebih lama, silakan beri komentar pada baris ini di finetune.py
model = prepare_model_for_int8_training ( model )
finetune.py
)File ini berisi aplikasi langsung PEFT / LoRA ke model dekoder saja, serta beberapa kode yang terkait dengan konstruksi cepat dan tokenisasi.
Contoh penggunaan:
python finetune.py
--base_model ' togethercomputer/RedPajama-INCITE-Base-7B-v0.1 '
--output_dir ' ./lora-redpajama '
Kami menggunakan perpustakaan accelerate
HuggingFace untuk pelatihan terdistribusi. Berikut ini contoh pelatihan terdistribusi dengan dua GPU.
export WORLD_SIZE=2
export CUDA_VISIBLE_DEVICES=0,1
torchrun
--nproc_per_node=2
--master_port=1234
finetune.py
--base_model ' togethercomputer/RedPajama-INCITE-Base-7B-v0.1 '
--output_dir ' ./lora-redpajama '