?ハグフェイス |
[2024.08.09] Q8_0 量子化モデル AMchat-q8_0.gguf を公開しました。
[2024.06.23] InternLM2-Math-Plus-20B モデルの微調整。
[2024.06.22] InternLM2-Math-Plus-1.8B モデルの微調整、オープンソースの小規模データセット。
[2024.06.21] README、InternLM2-Math-Plus-7B モデルの微調整を更新しました。
[2024.03.24] 2024年濮源大型模型シリーズチャレンジ(春季大会)、革新創造賞の上位12位。
[2024.03.14] HuggingFace にモデルをアップしました。
[2024.03.08] READMEを改善し、カタログと技術ルートを追加しました。 README_en-US.md を追加しました。
[2024.02.06] Docker のデプロイをサポートしました。
[2024.02.01] AMchat の最初のバージョンがオンラインで展開されます https://openxlab.org.cn/apps/detail/youngdon/AMchat
リファレンスモデルのダウンロード。
pip install modelscope
from modelscope . hub . snapshot_download import snapshot_download
model_dir = snapshot_download ( 'yondong/AMchat' , cache_dir = './' )
ダウンロードモデルを参照してください。
pip install openxlab
from openxlab . model import download
download ( model_repo = 'youngdon/AMchat' ,
model_name = 'AMchat' , output = './' )
git clone https://github.com/AXYZdong/AMchat.git
python start.py
docker run -t -i --rm --gpus all -p 8501:8501 guidonsdocker/amchat:latest bash start.sh
git clone https://github.com/AXYZdong/AMchat.git
cd AMchat
conda env create -f environment.yml
conda activate AMchat
pip install xtuner
# 列出所有内置配置
xtuner list-cfg
mkdir -p /root/math/data
mkdir /root/math/config && cd /root/math/config
xtuner copy-cfg internlm2_chat_7b_qlora_oasst1_e3 .
mkdir -p /root/math/model
download.py
import torch
from modelscope import snapshot_download , AutoModel , AutoTokenizer
import os
model_dir = snapshot_download ( 'Shanghai_AI_Laboratory/internlm2-math-7b' , cache_dir = '/root/math/model' )
微調整された構成ファイルは、ウェアハウスの
config
フォルダーの下に提供されています。internlm_chat_7b_qlora_oasst1_e3_copy.py
を参照してください。 直接使用できますが、pretrained_model_name_or_path
とdata_path
のパスの変更に注意してください。
cd /root/math/config
vim internlm_chat_7b_qlora_oasst1_e3_copy.py
# 修改模型为本地路径
- pretrained_model_name_or_path = 'internlm/internlm-chat-7b'
+ pretrained_model_name_or_path = './internlm2-math-7b'
# 修改训练数据集为本地路径
- data_path = 'timdettmers/openassistant-guanaco'
+ data_path = './data'
xtuner train /root/math/config/internlm2_chat_7b_qlora_oasst1_e3_copy.py
mkdir hf
export MKL_SERVICE_FORCE_INTEL=1
export MKL_THREADING_LAYER=GNU
xtuner convert pth_to_hf ./internlm2_chat_7b_qlora_oasst1_e3_copy.py
./work_dirs/internlm2_chat_7b_qlora_oasst1_e3_copy/epoch_3.pth
./hf
# 原始模型参数存放的位置
export NAME_OR_PATH_TO_LLM=/root/math/model/Shanghai_AI_Laboratory/internlm2-math-7b
# Hugging Face格式参数存放的位置
export NAME_OR_PATH_TO_ADAPTER=/root/math/config/hf
# 最终Merge后的参数存放的位置
mkdir /root/math/config/work_dirs/hf_merge
export SAVE_PATH=/root/math/config/work_dirs/hf_merge
# 执行参数Merge
xtuner convert merge
$NAME_OR_PATH_TO_LLM
$NAME_OR_PATH_TO_ADAPTER
$SAVE_PATH
--max-shard-size 2GB
streamlit run web_demo.py --server.address=0.0.0.0 --server.port 7860
このリポジトリをフォークして、OpenXLab で新しいプロジェクトを作成し、フォーク リポジトリを新しいプロジェクトに関連付けるだけで、AMchat を OpenXLab にデプロイできます。
pip install -U lmdeploy
turbomind
形式に変換します--dst-path: 変換されたモデルの保存場所を指定できます。
lmdeploy convert internlm2-chat-7b 要转化的模型地址 --dst-path 转换后的模型地址
lmdeploy chat turbomind 转换后的turbomind模型地址
git clone https://github.com/open-compass/opencompass
cd opencompass
pip install -e .
cp /share/temp/datasets/OpenCompassData-core-20231110.zip /root/opencompass/
unzip OpenCompassData-core-20231110.zip
python run.py
--datasets math_gen
--hf-path 模型地址
--tokenizer-path tokenizer地址
--tokenizer-kwargs padding_side= ' left ' truncation= ' left ' trust_remote_code=True
--model-kwargs device_map= ' auto ' trust_remote_code=True
--max-seq-len 2048
--max-out-len 16
--batch-size 2
--num-gpus 1
--debug
W4
定量化lmdeploy lite auto_awq 要量化的模型地址 --work-dir 量化后的模型地址
TurbMind
に変換するlmdeploy convert internlm2-chat-7b 量化后的模型地址 --model-format awq --group-size 128 --dst-path 转换后的模型地址
config
書き込み from mmengine . config import read_base
from opencompass . models . turbomind import TurboMindModel
with read_base ():
# choose a list of datasets
from . datasets . ceval . ceval_gen import ceval_datasets
# and output the results in a choosen format
# from .summarizers.medium import summarizer
datasets = [ * ceval_datasets ]
internlm2_chat_7b = dict (
type = TurboMindModel ,
abbr = 'internlm2-chat-7b-turbomind' ,
path = '转换后的模型地址' ,
engine_config = dict ( session_len = 512 ,
max_batch_size = 2 ,
rope_scaling_factor = 1.0 ),
gen_config = dict ( top_k = 1 ,
top_p = 0.8 ,
temperature = 1.0 ,
max_new_tokens = 100 ),
max_out_len = 100 ,
max_seq_len = 512 ,
batch_size = 2 ,
concurrency = 1 ,
# meta_template=internlm_meta_template,
run_cfg = dict ( num_gpus = 1 , num_procs = 1 ),
)
models = [ internlm2_chat_7b ]
python run.py configs/eval_turbomind.py -w 指定结果保存路径
TurbMind
に変換するlmdeploy convert internlm2-chat-7b 模型路径 --dst-path 转换后模型路径
# 计算
lmdeploy lite calibrate 模型路径 --calib-dataset ' ptb ' --calib-samples 128 --calib-seqlen 2048 --work-dir 参数保存路径
# 获取量化参数
lmdeploy lite kv_qparams 参数保存路径 转换后模型路径/triton_models/weights/ --num-tp 1
quant_policy
4
に変更し、上記のconfig
のパスを変更します。python run.py configs/eval_turbomind.py -w 结果保存路径
上海人工知能研究所が奨学生プユ実践キャンプ学習活動を企画してくれてありがとう~
プロジェクト展開のためのコンピューティング能力サポートを提供してくれた OpenXLab に感謝します~
プロジェクトをサポートしてくれた Puyu Assistant に感謝します~
私たちのプロジェクトに貴重な技術指導と強力な計算能力サポートを提供する Scholar・Puyu 大型モデル実践キャンプを立ち上げた上海人工知能研究所に感謝します。
InternLM-チュートリアル、 InternStudio 、 xtuner 、 InternLM-Math
@misc { 2024AMchat ,
title = { AMchat: A large language model integrating advanced math concepts, exercises, and solutions } ,
author = { AMchat Contributors } ,
howpublished = { url{https://github.com/AXYZdong/AMchat} } ,
year = { 2024 }
}
このプロジェクトは、Apache License 2.0 オープンソース ライセンスを採用しています。使用するモデルおよびデータセットのライセンスに従ってください。