lora instruct
1.0.0
Этот репозиторий содержит код для тонкой настройки разрешительных LLM с открытым исходным кодом с использованием низкоранговой адаптации (LoRA).
Код протестирован с использованием набора данных Stanford Alpaca.
Вдохновлен Альпакой-Лора
Модель | Бежит | Время обучения | Связь |
---|---|---|---|
ЛЛАМА 3Б | ⬜ | ||
ЛЛАМА 7Б | ⬜ | ||
Красная Пижама 3Б | ✅ | 1:44:14 | |
Красная Пижама 7Б | ✅ | 3:09:58 | |
МПТ 3Б | ⬜ | ||
МПТ 7Б | ⬜ | ||
Сокол 7Б | ✅ |
Ubuntu 20.04.1 LTS (WSL2)
Driver Version: 531.41
CUDA Version: 12.1
cuDNN version: 8.5.0
Установить зависимости
poetry install
Для точной настройки с использованием графического процессора NVidia серии 2000 или более ранней версии закомментируйте эту строку в finetune.py
model = prepare_model_for_int8_training ( model )
finetune.py
)Этот файл содержит простое применение PEFT/LoRA для модели только декодера, а также некоторый код, связанный с созданием подсказок и токенизацией.
Пример использования:
python finetune.py
--base_model ' togethercomputer/RedPajama-INCITE-Base-7B-v0.1 '
--output_dir ' ./lora-redpajama '
Мы используем библиотеку accelerate
HuggingFace для распределенного обучения. Ниже приведен пример распределенного обучения с двумя графическими процессорами.
export WORLD_SIZE=2
export CUDA_VISIBLE_DEVICES=0,1
torchrun
--nproc_per_node=2
--master_port=1234
finetune.py
--base_model ' togethercomputer/RedPajama-INCITE-Base-7B-v0.1 '
--output_dir ' ./lora-redpajama '