awesome slms
1.0.0
Ini adalah daftar SLM yang saya gunakan di Raspberry Pi5 saya (RAM 8GB) dengan Ollama
Nama | Ukuran | Menandai | Komentar | Baik | URL | Bagus di Pi5 | Dapat digunakan di Pi5 |
---|---|---|---|---|---|---|---|
kodegemma:2b | 1,6GB | 2B | Pengisian kode di tengah-tengah | kode | Link | ✅ | |
permata:2b | 1,7GB | 2B | mengobrol | Link | ✅ | ||
permata2:2b | 1,6GB | 2B | mengobrol | Link | ✅ | ||
serba minilm:22m | 46MB | 22M | Hanya Penyematan | penyematan | Link | ✅ | ✅ |
serba minilm:33m | 67MB | 33M | Hanya Penyematan | penyematan | Link | ✅ | ✅ |
pembuat kode deepseek:1.3b | 776MB | 1.3B | Dilatih dengan 87% kode dan 13% bahasa alami | kode | Link | ✅ | ✅ |
kecillama | 638MB | 1.1B | mengobrol | Link | ✅ | ✅ | |
lumba-lumba kecil | 637MB | 1.1B | mengobrol | Link | ✅ | ✅ | |
phi3:mini | 2.4GB | 3B | mengobrol | Link | ✅ | ||
phi3.5 | 2.2GB | 3B | mengobrol | Link | ✅ | ||
kode granit:3b | 2.0GB | 3B | kode | Link | ✅ | ||
qwen2.5:0.5b | 398MB | 0,5B | obrolan, alat | Link | ✅ | ✅ | |
qwen2.5:1.5b | 986MB | 1.5B | obrolan, alat | Link | ✅ | ||
qwen2.5:3b | 1,9GB | 3B | obrolan, alat | Link | ✅ | ||
qwen2.5-coder:1.5b | 986MB | 1.5B | kode, alat | Link | ✅ | ||
qwen2:0.5b | 352MB | 0,5B | mengobrol | Link | ✅ | ✅ | |
qwen2:1.5b | 934MB | 1,5B | mengobrol | Link | ✅ | ||
qwen:0.5b | 395MB | 0,5B | mengobrol | Link | ✅ | ✅ | |
qwen2-matematika:1.5b | 935MB | 1.5B | Model bahasa matematika khusus | matematika | Link | ✅ | |
pembuat kode bintang:1b | 726MB | 1B | Model pembuatan kode | kode | Link | ✅ | ✅ |
pembuat kode bintang2:3b | 1,7GB | 3B | kode | Link | ✅ | ||
stablelm2:1.6b | 983MB | 1.6B | LLM dilatih tentang data multibahasa dalam bahasa Inggris, Spanyol, Jerman, Italia, Prancis, Portugis, dan Belanda. | mengobrol | Link | ✅ | ✅ |
kode stabil:3b | 1,6GB | 3B | Model pengkodean | kode | Link | ✅ | |
pemerah pipi/replete-coder-qwen2-1.5b:Q8 | 1,9GB | 1.5B | Kemampuan coding + data non-coding, sepenuhnya dibersihkan dan tanpa sensor (mat+tool? untuk diuji) | kode | Link | ✅ | |
lumba-lumba-phi:2.7b | 1,6GB | 2.7B | tanpa sensor | mengobrol | Link | ✅ | |
Komputasi Kognitif/lumba-lumba-gemma2:2b | 1,6GB | 2B | mengobrol | Link | ✅ | ||
allenporter/xlam:1b | 873MB | 1B | peralatan | Link | ✅ | ||
sam4096/qwen2tools:0.5b | 352MB | 0,5B | peralatan | Link | ✅ | ✅ | |
sam4096/qwen2tools:1.5b | 935MB | 1,5B | peralatan | Link | ✅ | ||
mxbai-embed-besar:335m | 670MB | 335M | Hanya Penyematan | penyematan | Link | ✅ | ✅ |
nomic-embed-teks:v1.5 | 274MB | 137M | Hanya Penyematan | penyematan | Link | ✅ | ✅ |
pembuat kode yi:1.5b | 866MB | 1.5B | Kode | kode | Link | ✅ | |
bge-m3 | 1.2GB | 567M | Hanya Penyematan | penyematan | Link | ✅ | |
pembaca-lm:0.5b | 352MB | 0,5b | mengonversi HTML ke penurunan harga | konversi | Link | ✅ | ✅ |
pembaca-lm:1.5b | 935MB | 1.5b | mengonversi HTML ke penurunan harga | konversi | Link | ✅ | ✅ |
perisaigemma:2b | 1,7GB | 2b | mengevaluasi keamanan teks | keamanan | Link | ✅ | |
llama-penjaga3:1b | 1,6GB | 1b | mengevaluasi keamanan teks | keamanan | Link | ✅ | |
granit3-padat:2b | 1,6GB | 2b | obrolan, alat, penyematan | Link | ✅ | ||
granit3-moe:1b | 822MB | 1b | obrolan, alat, penyematan | Link | ✅ | ✅ | |
llama3.2:1b | 1,3GB | 1b | obrolan, alat | Link | ✅ | ||
llama3.2:3b | 2.0GB | 3b | obrolan, alat | Link | ✅ | ||
kecil:135m | 92MB | 135m | ?️ dapat berjalan pada Pi 3A+ | ? sulit dikendalikan | mengobrol | Link | ✅ |
kecil:360m | 229MB | 360m | ?️ dapat berjalan dengan baik di Pi 4 8GB | mengobrol | Link | ✅ | ✅ |
kecil:1.7b | 991MB | 1.7b | mengobrol | Link | ✅ | ✅ | |
smollm2:135m | 271MB | 135m | ?️ dapat berjalan dengan baik di Pi 4 8GB | obrolan, alat | Link | ✅ | ✅ |
smollm2:360m | 726MB | 360m | ?️ dapat berjalan di Pi 4 8GB | obrolan, alat | Link | ✅ | ✅ |
kecil2:1.7b | 1,8GB | 1.7b | obrolan, alat | Link | ✅ |