lora instruct
1.0.0
พื้นที่เก็บข้อมูลนี้มีโค้ดสำหรับการปรับแต่ง LLM โอเพ่นซอร์สที่อนุญาตโดยละเอียดโดยใช้การปรับอันดับต่ำ (LoRA)
รหัสได้รับการทดสอบโดยใช้ชุดข้อมูล Stanford Alpaca
แรงบันดาลใจจากอัลปาก้า-LoRA
แบบอย่าง | วิ่ง | เวลาการฝึกอบรม | ลิงค์ |
---|---|---|---|
ลามา 3B | |||
ลามา 7B | |||
ชุดนอนสีแดง 3B | 1:44:14 | ||
ชุดนอนสีแดง 7B | 3:09:58 | ||
เอ็มพีที 3บี | |||
MPT 7B | |||
ฟอลคอน 7B |
Ubuntu 20.04.1 LTS (WSL2)
Driver Version: 531.41
CUDA Version: 12.1
cuDNN version: 8.5.0
ติดตั้งการพึ่งพา
poetry install
หากต้องการปรับแต่งโดยใช้ GPU NVidia 2000 series หรือรุ่นก่อนหน้า โปรดแสดงความคิดเห็นในบรรทัดนี้ใน finetune.py
model = prepare_model_for_int8_training ( model )
finetune.py
)ไฟล์นี้มีแอปพลิเคชัน PEFT / LoRA ที่ตรงไปตรงมาเพื่อถอดรหัสเฉพาะโมเดลเท่านั้น รวมถึงโค้ดบางส่วนที่เกี่ยวข้องกับการสร้างและโทเค็นทันที
ตัวอย่างการใช้งาน:
python finetune.py
--base_model ' togethercomputer/RedPajama-INCITE-Base-7B-v0.1 '
--output_dir ' ./lora-redpajama '
เราใช้ไลบรารี accelerate
ของ HuggingFace สำหรับการฝึกอบรมแบบกระจาย ต่อไปนี้เป็นตัวอย่างสำหรับการฝึกอบรมแบบกระจายกับ GPU สองตัว
export WORLD_SIZE=2
export CUDA_VISIBLE_DEVICES=0,1
torchrun
--nproc_per_node=2
--master_port=1234
finetune.py
--base_model ' togethercomputer/RedPajama-INCITE-Base-7B-v0.1 '
--output_dir ' ./lora-redpajama '