ดาวน์โหลดโมเดลจากไลบรารี Ollama
หากคุณติดตั้ง uv
คุณสามารถเรียกใช้:
uv run ollama_dl.py llama3.2
เพื่อให้ติดตั้งการขึ้นต่อกันที่จำเป็นและเรียกใช้สคริปต์เพื่อดาวน์โหลด Meta Llama 3.2 เวอร์ชัน latest
ที่เป็นค่าเริ่มต้น
(หากคุณไม่มี uv
ให้ตั้งค่า Python virtualenv, pip install -e .
และรันด้วย ollama-dl
)
เมื่อดาวน์โหลดแบบจำลองแล้ว คุณสามารถใช้กับ เช่น llama.cpp:
$ ollama-dl llama3.2:1b
[09/26/24 14:32:04] INFO Downloading to: library-llama3.2-1b
library-llama3.2-1b/template-966de95ca8a6.txt (1 KB) ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 100% 0:00:00
library-llama3.2-1b/license-a70ff7e570d9.txt (5 KB) ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 100% 0:00:00
library-llama3.2-1b/license-fcc5a6bec9da.txt (7 KB) ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 100% 0:00:00
library-llama3.2-1b/model-74701a8c35f6.gguf (1259 MB) ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 100% 0:00:00
$ ../llama.cpp/llama-cli -m library-llama3.2-1b/model-74701a8c35f6.gguf -p "We're no strangers to love"
build: 3828 (95bc82fb) with Apple clang version 16.0.0 (clang-1600.0.26.3) for arm64-apple-darwin23.6.0
[...]
We're no strangers to love, but we're no strangers to the chaos that comes with it. And, quite frankly, we're rather fond of a good argument.
^C