英語 | 中文
?擁抱臉•?模型範圍•?明智的模型
? 在 GitHub 上提出問題或討論想法
加入我們?不和諧或微信
查看易科技報告
在易學習中心成長
?在易科技部落格學習
? Yi系列模型是01.AI從零開始訓練的下一代開源大語言模型。
? Yi系列模型以雙語語言模型為目標,在3T多語言語料庫上進行訓練,成為全球最強的LLM模型之一,在語言理解、常識推理、閱讀理解等方面展現出良好的前景。例如,
Yi-34B-Chat 模型在 AlpacaEval 排行榜上排名第二(僅次於 GPT-4 Turbo) ,優於其他 LLM(例如 GPT-4、Mixtral、Claude)(基於截至 2024 年 1 月的可用數據)。
Yi-34B模型在Hugging Face Open LLM Leaderboard(預訓練)和C-Eval等各種基準測試中,在所有現有開源模型(如Falcon-180B、Llama-70B、Claude)中英文和中文排名第一(基於截至2023 年11 月的可用數據)。
(感謝 Llama)感謝 Transformer 和 Llama 開源社區,因為它們減少了從頭開始建立所需的工作量,並支持在 AI 生態系統中使用相同的工具。
長話短說
Yi系列模型採用與Llama相同的模型架構,但不是Llama的衍生品。
Yi和Llama都基於Transformer結構,自2018年以來一直是大型語言模型的標準架構。
Llama 基於 Transformer 架構,憑藉其卓越的穩定性、可靠的收斂性和強大的兼容性,已成為大多數最先進開源模型的新基石。這使得 Llama 成為包括 Yi 在內的模型公認的基礎架構。
由於 Transformer 和 Llama 架構,其他模型可以利用它們的強大功能,減少從頭開始建立所需的工作量,並能夠在其生態系統中使用相同的工具。
然而,Yi 系列模型不是 Llama 的衍生品,因為它們不使用 Llama 的權重。
由於大多數開源模型都採用 Llama 的結構,因此決定模型效能的關鍵因素是訓練資料集、訓練管道和訓練基礎設施。
Yi 以獨特且專有的方式進行開發,完全從頭開始獨立創建了自己的高品質訓練資料集、高效的訓練管道和強大的訓練基礎設施。這項努力帶來了優異的表現,Yi 系列車型在 2023 年 12 月的 Alpaca 排行榜上排名僅次於 GPT4,並超越 Llama。
[回到頂部⬆️]
Yi-9B-200K
開源並向公眾開放。Yi-9B
開源並向公眾開放。Yi-9B
在一系列類似規模的開源模型(包括 Mistral-7B、SOLAR-10.7B、Gemma-7B、DeepSeek-Coder-7B-Base-v1.5 等)中脫穎而出,成為表現最佳的模型,尤其擅長程式碼、數學、常識推理和閱讀理解。Yi-VL-34B
和Yi-VL-6B
已開源並向公眾開放。Yi-VL-34B
在最新基準測試中在所有現有開源模型中排名第一,包括MMMU和CMMMU(基於截至2024年1月的可用數據)。Yi-34B-Chat
Yi-34B-Chat-4bits
Yi-34B-Chat-8bits
Yi-6B-Chat
Yi-6B-Chat-4bits
Yi-6B-Chat-8bits
您可以在以下位置互動式地嘗試其中一些:
Yi-6B-200K
和Yi-34B-200K
開源並向公眾開放。Yi-6B
和Yi-34B
已開源並向公眾開放。[回到頂部⬆️]
Yi 型號有多種尺寸,可滿足不同的用例。您也可以微調 Yi 模型以滿足您的特定要求。
如果您想部署 Yi 模型,請確保滿足軟體和硬體要求。
模型 | 下載 |
---|---|
Yi-34B-聊天 | •?擁抱臉•?模型範圍•?明智的模型 |
Yi-34B-聊天-4bits | •?擁抱臉•?模型範圍•?明智的模型 |
Yi-34B-聊天-8位 | •?擁抱臉•?模型範圍•?明智的模型 |
Yi-6B-聊天 | •?擁抱臉•?模型範圍•?明智的模型 |
Yi-6B-聊天-4bits | •?擁抱臉•?模型範圍•?明智的模型 |
Yi-6B-聊天-8bits | •?擁抱臉•?模型範圍•?明智的模型 |
- 4 位元系列模型由 AWQ 量化。
- 8位元系列模型透過GPTQ量化
- 所有量化模型的使用門檻都很低,因為它們可以部署在消費級 GPU(例如 3090、4090)上。
模型 | 下載 |
---|---|
翼34B | •?擁抱臉•?模型範圍•?明智的模型 |
毅-34B-200K | •?擁抱臉•?模型範圍•?明智的模型 |
毅9B | •?擁抱臉•?模型範圍•?明智的模型 |
毅9B-200K | •?擁抱臉•?模型範圍•?明智的模型 |
伊6B | •?擁抱臉•?模型範圍•?明智的模型 |
毅6B-200K | •?擁抱臉•?模型範圍•?明智的模型 |
- 200k大約相當於40萬個漢字。
- 如果您想使用Yi-34B-200K的舊版(2023年11月5日發布),請執行git checkout 069cd341d60f4ce4b07ec394e82b79e94f656cf
下載權重。
模型 | 簡介 | 預設上下文視窗 | 預訓練令牌 | 訓練資料日期 |
---|---|---|---|---|
6B系列機型 | 它們適合個人和學術用途。 | 4K | 3T | 截至 2023 年 6 月 |
9B系列機型 | 它是 Yi 系列模型中最擅長編碼和數學的。 | Yi-9B是在Yi-6B的基礎上持續訓練的,使用0.8T token。 | ||
34B系列型號 | 它們適合個人、學術和商業(特別是中小型企業)用途。這是一種經濟高效的解決方案,價格實惠且具備應急能力。 | 3T |
對於聊天模型
然而,這種更高的多樣性可能會加劇某些現有問題,包括:
[回到頂部⬆️]
提示:如果您想開始使用 Yi 模型並探索不同的推理方法,請查看 Yi Cookbook。
選擇以下路徑之一,開始您與 Yi 的旅程!
如果您喜歡在本地部署 Yi 模型,
?♀️並且您有足夠的資源(例如NVIDIA A800 80GB),您可以選擇以下方法之一:
?♀️並且您的資源有限(例如MacBook Pro),您可以使用llama.cpp。
如果您不想在本機上部署 Yi 模型,則可以使用下列任一選項來探索 Yi 的功能。
如果你想探索 Yi 的更多特性,可以採用以下方法之一:
Yi API(Yi 官方)
Yi API(複製)
如果您想與 Yi 聊天時使用更多可自訂的選項(例如係統提示、溫度、重複懲罰等),您可以嘗試以下選項之一:
Yi-34B-Chat-Playground (Yi官方)
Yi-34B-聊天-遊樂場(複製)
如果您想與 Yi 聊天,您可以使用以下線上服務之一,它們提供類似的用戶體驗:
Yi-34B-Chat(抱臉的彝族官方)
Yi-34B-Chat(Yi 官方測試版)
[回到頂部⬆️]
本教學將引導您完成在 A800 (80G) 上本地運行 Yi-34B-Chat然後執行推理的每個步驟。
確保安裝了Python 3.10或更高版本。
如果您想運行其他 Yi 型號,請參閱軟體和硬體需求。
若要設定環境並安裝所需的軟體包,請執行下列命令。
git clone https://github.com/01-ai/Yi.git
cd yi
pip install -r requirements.txt
您可以從以下來源下載 Yi 模型的權重和分詞器:
您可以使用 Yi chat 或基本模型進行推理,如下所示。
建立一個名為quick_start.py
的檔案並將以下內容複製到其中。
from transformers import AutoModelForCausalLM , AutoTokenizer
model_path = '<your-model-path>'
tokenizer = AutoTokenizer . from_pretrained ( model_path , use_fast = False )
# Since transformers 4.35.0, the GPT-Q/AWQ model can be loaded using AutoModelForCausalLM.
model = AutoModelForCausalLM . from_pretrained (
model_path ,
device_map = "auto" ,
torch_dtype = 'auto'
). eval ()
# Prompt content: "hi"
messages = [
{ "role" : "user" , "content" : "hi" }
]
input_ids = tokenizer . apply_chat_template ( conversation = messages , tokenize = True , add_generation_prompt = True , return_tensors = 'pt' )
output_ids = model . generate ( input_ids . to ( 'cuda' ))
response = tokenizer . decode ( output_ids [ 0 ][ input_ids . shape [ 1 ]:], skip_special_tokens = True )
# Model response: "Hello! How can I assist you today?"
print ( response )
運行quick_start.py
。
python quick_start.py
然後您可以看到類似下面的輸出。 ?
Hello ! How can I assist you today ?
翼34B
步驟類似於 pip - 使用 Yi 聊天模型進行推理。
您可以使用現有文件text_generation.py
。
python demo/text_generation.py --model < your-model-path >
然後您可以看到類似下面的輸出。 ?
提示:讓我告訴你一個關於貓湯姆和老鼠傑瑞的有趣故事,
世代:讓我告訴你一個發生在我童年的關於貓湯姆和老鼠傑瑞的有趣故事。我父親有一棟大房子,裡面住著兩隻貓,用來捕老鼠。有一天,我一個人在家玩,發現一隻雄貓仰躺在廚房門口附近,看上去很像要我們送東西,卻爬不起來,因為周圍人太多了!他又試了幾分鐘,最後還是放棄了…
毅9B
輸入
from transformers import AutoModelForCausalLM, AutoTokenizer
MODEL_DIR = " 01-ai/Yi-9B "
model = AutoModelForCausalLM.from_pretrained(MODEL_DIR, torch_dtype= " auto " )
tokenizer = AutoTokenizer.from_pretrained(MODEL_DIR, use_fast=False)
input_text = " # write the quick sort algorithm "
inputs = tokenizer(input_text, return_tensors= " pt " ).to(model.device)
outputs = model.generate( ** inputs, max_length=256)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
輸出
# write the quick sort algorithm
def quick_sort(arr):
if len(arr) < = 1:
return arr
pivot = arr[len(arr) // 2]
left = [x for x in arr if x < pivot]
middle = [x for x in arr if x == pivot]
right = [x for x in arr if x > pivot]
return quick_sort(left) + middle + quick_sort(right)
# test the quick sort algorithm
print(quick_sort([3, 6, 8, 10, 1, 2, 1]))
[回到頂部⬆️]
確保您已安裝 Docker 和 nvidia-container-toolkit。
docker run -it --gpus all
-v <your-model-path>: /models
ghcr.io/01-ai/yi:latest
或者,您可以從registry.lingyiwanwu.com/ci/01-ai/yi:latest
提取Yi Docker 映像。
您可以使用 Yi chat 或基本模型進行推理,如下所示。
步驟類似於 pip - 使用 Yi 聊天模型進行推理。
請注意,唯一的差異是設定model_path = '<your-model-mount-path>'
而不是model_path = '<your-model-path>'
。
步驟類似於 pip - 使用 Yi 基本模型進行推理。
請注意,唯一的區別是設定--model <your-model-mount-path>'
而不是model <your-model-path>
。
conda-lock
為 conda 環境產生完全可重現的鎖定檔案。micromamba
來安裝這些依賴項。請按照此處提供的說明安裝 micromamba。
執行micromamba install -y -n yi -f conda-lock.yml
建立名為yi
conda 環境並安裝必要的依賴項。
以下教學將引導您完成在本地運行量化模型(Yi-chat-6B-2bits)然後執行推理的每個步驟。
本教學假設您使用配備 16GB 記憶體和 Apple M2 Pro 晶片的 MacBook Pro。
確保您的電腦上安裝了git-lfs
。
llama.cpp
若要克隆llama.cpp
儲存庫,請執行下列命令。
git clone [email protected]:ggerganov/llama.cpp.git
2.1 若要僅使用指針複製 XeIaso/yi-chat-6B-GGUF,請執行以下指令。
GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/XeIaso/yi-chat-6B-GGUF
2.2 若要下載量化的 Yi 模型(yi-chat-6b.Q2_K.gguf),請執行下列指令。
git-lfs pull --include yi-chat-6b.Q2_K.gguf
要使用 Yi 模型進行推理,您可以使用以下方法之一。
方法一:在終端機進行推理
方法2:在Web中進行推理
若要使用 4 個執行緒編譯llama.cpp
然後進行推理,請導覽至llama.cpp
目錄,然後執行下列命令。
尖端
將
/Users/yu/yi-chat-6B-GGUF/yi-chat-6b.Q2_K.gguf
替換為模型的實際路徑。預設情況下,模型在完成模式下運行。
對於其他輸出自訂選項(例如係統提示、溫度、重複懲罰等),請執行
./main -h
查看詳細說明和用法。
make -j4 && ./main -m /Users/yu/yi-chat-6B-GGUF/yi-chat-6b.Q2_K.gguf -p " How do you feed your pet fox? Please answer this question in 6 simple steps:nStep 1: " -n 384 -e
...
How do you feed your pet fox ? Please answer this question in 6 simple steps:
Step 1: Select the appropriate food for your pet fox. You should choose high-quality, balanced prey items that are suitable for their unique dietary needs. These could include live or frozen mice, rats, pigeons, or other small mammals, as well as fresh fruits and vegetables.
Step 2: Feed your pet fox once or twice a day, depending on the species and its individual preferences. Always ensure that they have access to fresh water throughout the day.
Step 3: Provide an appropriate environment for your pet fox. Ensure it has a comfortable place to rest, plenty of space to move around, and opportunities to play and exercise.
Step 4: Socialize your pet with other animals if possible. Interactions with other creatures can help them develop social skills and prevent boredom or stress.
Step 5: Regularly check for signs of illness or discomfort in your fox. Be prepared to provide veterinary care as needed, especially for common issues such as parasites, dental health problems, or infections.
Step 6: Educate yourself about the needs of your pet fox and be aware of any potential risks or concerns that could affect their well-being. Regularly consult with a veterinarian to ensure you are providing the best care.
...
現在你已經成功向Yi模型提問並得到了答案! ?
若要初始化輕量級且快速的聊天機器人,請執行以下命令。
cd llama.cpp
./server --ctx-size 2048 --host 0.0.0.0 --n-gpu-layers 64 --model /Users/yu/yi-chat-6B-GGUF/yi-chat-6b.Q2_K.gguf
然後你可以得到這樣的輸出:
...
llama_new_context_with_model: n_ctx = 2048
llama_new_context_with_model: freq_base = 5000000.0
llama_new_context_with_model: freq_scale = 1
ggml_metal_init: allocating
ggml_metal_init: found device: Apple M2 Pro
ggml_metal_init: picking default device: Apple M2 Pro
ggml_metal_init: ggml.metallib not found, loading from source
ggml_metal_init: GGML_METAL_PATH_RESOURCES = nil
ggml_metal_init: loading ' /Users/yu/llama.cpp/ggml-metal.metal '
ggml_metal_init: GPU name: Apple M2 Pro
ggml_metal_init: GPU family: MTLGPUFamilyApple8 (1008)
ggml_metal_init: hasUnifiedMemory = true
ggml_metal_init: recommendedMaxWorkingSetSize = 11453.25 MB
ggml_metal_init: maxTransferRate = built-in GPU
ggml_backend_metal_buffer_type_alloc_buffer: allocated buffer, size = 128.00 MiB, ( 2629.44 / 10922.67)
llama_new_context_with_model: KV self size = 128.00 MiB, K (f16): 64.00 MiB, V (f16): 64.00 MiB
ggml_backend_metal_buffer_type_alloc_buffer: allocated buffer, size = 0.02 MiB, ( 2629.45 / 10922.67)
llama_build_graph: non-view tensors processed: 676/676
llama_new_context_with_model: compute buffer total size = 159.19 MiB
ggml_backend_metal_buffer_type_alloc_buffer: allocated buffer, size = 156.02 MiB, ( 2785.45 / 10922.67)
Available slots:
- > Slot 0 - max context: 2048
llama server listening at http://0.0.0.0:8080
若要存取聊天機器人介面,請開啟 Web 瀏覽器並在網址列輸入http://0.0.0.0:8080
。
在提示視窗中輸入問題,例如“您如何餵養您的寵物狐狸?請透過6個簡單步驟回答這個問題”,您將收到相應的答案。
[回到頂部⬆️]
您可以為 Yi聊天模型建立 Web UI 演示(請注意,此方案不支援 Yi 基本模型)。
步驟 1:準備環境。
步驟2:下載Yi模型。
步驟 3. 若要在本機啟動 Web 服務,請執行下列命令。
python demo/web_demo.py -c < your-model-path >
您可以透過在瀏覽器中輸入控制台中提供的位址來存取 Web UI。
[回到頂部⬆️]
bash finetune/scripts/run_sft_Yi_6b.sh
完成後,您可以使用以下命令比較微調模型和基礎模型:
bash finetune/scripts/run_eval.sh
預設情況下,我們使用 BAAI/COIG 的小型資料集來微調基本模型。您也可以使用以下jsonl
格式準備自訂資料集:
{ "prompt" : " Human: Who are you? Assistant: " , "chosen" : " I'm Yi. " }
然後將它們掛載到容器中以替換預設的:
docker run -it
-v /path/to/save/finetuned/model/:/finetuned-model
-v /path/to/train.jsonl:/yi/finetune/data/train.json
-v /path/to/eval.jsonl:/yi/finetune/data/eval.json
ghcr.io/01-ai/yi:latest
bash finetune/scripts/run_sft_Yi_6b.sh
確保你有康達。如果沒有,請使用
mkdir -p ~ /miniconda3
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh -O ~ /miniconda3/miniconda.sh
bash ~ /miniconda3/miniconda.sh -b -u -p ~ /miniconda3
rm -rf ~ /miniconda3/miniconda.sh
~ /miniconda3/bin/conda init bash
source ~ /.bashrc
然後,創建一個 conda 環境:
conda create -n dev_env python=3.10 -y
conda activate dev_env
pip install torch==2.0.1 deepspeed==0.10 tensorboard transformers datasets sentencepiece accelerate ray==2.7
對於Yi-6B型號,建議使用4個GPU的節點,每個GPU顯存大於60GB。
對於 Yi-34B 模型,由於使用零卸載技術會消耗大量 CPU 內存,因此在 34B Finetune 訓練時請注意限制 GPU 數量。請使用CUDA_VISIBLE_DEVICES來限制GPU的數量(如scripts/run_sft_Yi_34b.sh所示)。
微調 34B 模型的典型硬體設定是具有 8 個 GPU 的節點(透過 CUDA_VISIBLE_DEVICES=0,1,2,3 限制運行中的 4 個),每個 GPU 記憶體大於 80GB,總 CPU 記憶體大於 900GB。
將基於 LLM 的模型下載到 MODEL_PATH(6B 和 34B)。典型的模型資料夾如下:
| -- $MODEL_PATH
| | -- config.json
| | -- pytorch_model-00001-of-00002.bin
| | -- pytorch_model-00002-of-00002.bin
| | -- pytorch_model.bin.index.json
| | -- tokenizer_config.json
| | -- tokenizer.model
| | -- ...
從huggingface下載資料集到本機儲存DATA_PATH,例如Dahoas/rm-static。
| -- $DATA_PATH
| | -- data
| | | -- train-00000-of-00001-2a1df75c6bce91ab.parquet
| | | -- test-00000-of-00001-8c7c51afc6d45980.parquet
| | -- dataset_infos.json
| | -- README.md
finetune/yi_example_dataset
有範例資料集,修改自 BAAI/COIG
| -- $DATA_PATH
| --data
| -- train.jsonl
| -- eval.jsonl
cd
進入腳本資料夾,複製並貼上腳本,然後運行。例如:
cd finetune/scripts
bash run_sft_Yi_6b.sh
對於Yi-6B基礎模型,設定training_debug_steps=20和num_train_epochs=4可以輸出聊天模型,大約需要20分鐘。
對於Yi-34B基礎模型來說,初始化需要相對較長的時間。請耐心等待。
cd finetune/scripts
bash run_eval.sh
然後您將看到基本模型和微調模型的答案。
[回到頂部⬆️]
python quantization/gptq/quant_autogptq.py
--model /base_model
--output_dir /quantized_model
--trust_remote_code
完成後,您可以如下評估產生的模型:
python quantization/gptq/eval_quantized_model.py
--model /quantized_model
--trust_remote_code
GPT-Q 是一種 PTQ(訓練後量化)方法。它可以節省記憶體並提供潛在的加速,同時保持模型的準確性。
Yi 模型不需要太多努力就可以進行 GPT-Q 量化。我們在下面提供了逐步教程。
為了運行 GPT-Q,我們將使用 AutoGPTQ 和 exllama。 Huggingface Transformer 整合了 optimization 和 auto-gptq,可以在語言模型上執行 GPTQ 量化。
提供了quant_autogptq.py
腳本供您執行 GPT-Q 量化:
python quant_autogptq.py --model /base_model
--output_dir /quantized_model --bits 4 --group_size 128 --trust_remote_code
您可以使用eval_quantized_model.py
運行量化模型:
python eval_quantized_model.py --model /quantized_model --trust_remote_code
python quantization/awq/quant_autoawq.py
--model /base_model
--output_dir /quantized_model
--trust_remote_code
完成後,您可以如下評估產生的模型:
python quantization/awq/eval_quantized_model.py
--model /quantized_model
--trust_remote_code
AWQ 是一種 PTQ(訓練後量化)方法。它是適用於 LLM 的高效且準確的低位權重量化 (INT3/4)。
Yi 模型無需太多努力即可進行 AWQ 量化。我們在下面提供了逐步教程。
為了運行 AWQ,我們將使用 AutoAWQ。
提供了quant_autoawq.py
腳本供您執行 AWQ 量化:
python quant_autoawq.py --model /base_model
--output_dir /quantized_model --bits 4 --group_size 128 --trust_remote_code
您可以使用eval_quantized_model.py
運行量化模型:
python eval_quantized_model.py --model /quantized_model --trust_remote_code
[回到頂部⬆️]
如果您想部署 Yi 模型,請確保滿足軟體和硬體要求。
在使用 Yi 量化模型之前,請確保您已安裝下列正確的軟體。
模型 | 軟體 |
---|---|
Yi 4位元量化模型 | AWQ 和 CUDA |
Yi 8位元量化模型 | GPTQ 和 CUDA |
在您的環境中部署 Yi 之前,請確保您的硬體符合以下要求。
模型 | 最小顯存 | 推薦的 GPU 範例 |
---|---|---|
Yi-6B-聊天 | 15GB | 1 個 RTX 3090 (24 GB) 1 個 RTX 4090 (24 GB) 1 個 A10(24 GB) 1 個 A30(24 GB) |
Yi-6B-聊天-4bits | 4GB | 1 個 RTX 3060 (12 GB) 1 個 RTX 4060 (8 GB) |
Yi-6B-聊天-8bits | 8GB | 1 個 RTX 3070 (8 GB) 1 個 RTX 4060 (8 GB) |
Yi-34B-聊天 | 72GB | 4 個 RTX 4090 (24 GB) 1 個 A800(80GB) |
Yi-34B-聊天-4bits | 20GB | 1 個 RTX 3090 (24 GB) 1 個 RTX 4090 (24 GB) 1 個 A10(24 GB) 1 個 A30(24 GB) 1 個 A100(40 GB) |
Yi-34B-聊天-8位 | 38GB | 2 個 RTX 3090 (24 GB) 2 個 RTX 4090 (24 GB) 1 個 A800(40 GB) |
以下是不同批次用例下詳細的最低 VRAM 要求。
模型 | 批次=1 | 批次=4 | 批次=16 | 批次=32 |
---|---|---|---|---|
Yi-6B-聊天 | 12GB | 13GB | 15GB | 18GB |
Yi-6B-聊天-4bits | 4GB | 5GB | 7GB | 10GB |
Yi-6B-聊天-8bits | 7GB | 8GB | 10GB | 14GB |
Yi-34B-聊天 | 65GB | 68GB | 76GB | > 80 GB |
Yi-34B-聊天-4bits | 19GB | 20GB | 30GB | 40GB |
Yi-34B-聊天-8位 | 35GB | 37GB | 46GB | 58GB |
模型 | 最小顯存 | 推薦的 GPU 範例 |
---|---|---|
伊6B | 15GB | 1 個 RTX 3090 (24 GB) 1 個 RTX 4090 (24 GB) 1 個 A10(24 GB) 1 個 A30(24 GB) |
毅6B-200K | 50GB | 1 個 A800(80 GB) |
毅9B | 20GB | 1 個 RTX 4090 (24 GB) |
翼34B | 72GB | 4 個 RTX 4090 (24 GB) 1 個 A800(80 GB) |
毅-34B-200K | 200GB | 4 個 A800(80 GB) |
[回到頂部⬆️]
Yi-34B
和Yi-34B-Chat
上的全面微調之間的主要區別在於微調方法和結果。Yi-34B
進行微調可能是您的首選。Yi-34B-Chat
可能是您的最佳選擇。