awesome slms
1.0.0
Dies ist die Liste der SLMs, die ich auf meinem Raspberry Pi5 (8 GB RAM) mit Ollama verwende
Name | Größe | Etikett | Bemerkung | Art | URL | Gut auf Pi5 | Verwendbar auf Pi5 |
---|---|---|---|---|---|---|---|
Codegemma:2b | 1,6 GB | 2B | Vervollständigung des Codes zum Ausfüllen der Mitte | Code | Link | ✅ | |
gemma:2b | 1,7 GB | 2B | chatten | Link | ✅ | ||
gemma2:2b | 1,6 GB | 2B | chatten | Link | ✅ | ||
Ganzminifilm: 22m | 46 MB | 22M | Nur Einbettungen | Einbettung | Link | ✅ | ✅ |
Ganzminifilm: 33 m | 67 MB | 33M | Nur Einbettungen | Einbettung | Link | ✅ | ✅ |
deepseek-coder:1.3b | 776 MB | 1,3B | Ausgebildet zu 87 % in Code und zu 13 % in natürlicher Sprache | Code | Link | ✅ | ✅ |
tinyllama | 638 MB | 1.1B | chatten | Link | ✅ | ✅ | |
TinyDolphin | 637 MB | 1.1B | chatten | Link | ✅ | ✅ | |
phi3:mini | 2,4 GB | 3B | chatten | Link | ✅ | ||
phi3,5 | 2,2 GB | 3B | chatten | Link | ✅ | ||
Granit-Code:3b | 2,0 GB | 3B | Code | Link | ✅ | ||
qwen2,5:0,5b | 398 MB | 0,5B | Chat, Tools | Link | ✅ | ✅ | |
qwen2,5:1,5b | 986 MB | 1,5B | Chat, Tools | Link | ✅ | ||
qwen2.5:3b | 1,9 GB | 3B | Chat, Tools | Link | ✅ | ||
qwen2.5-coder:1.5b | 986 MB | 1,5B | Code, Werkzeuge | Link | ✅ | ||
qwen2:0,5b | 352 MB | 0,5B | chatten | Link | ✅ | ✅ | |
qwen2:1,5b | 934 MB | 1,5B | chatten | Link | ✅ | ||
qwen:0,5b | 395 MB | 0,5B | chatten | Link | ✅ | ✅ | |
qwen2-math:1.5b | 935 MB | 1,5B | Spezialisiertes mathematisches Sprachmodell | Mathe | Link | ✅ | |
Starcoder:1b | 726 MB | 1B | Codegenerierungsmodell | Code | Link | ✅ | ✅ |
starcoder2:3b | 1,7 GB | 3B | Code | Link | ✅ | ||
stabillm2:1.6b | 983 MB | 1,6B | LLM wurde an mehrsprachigen Daten in Englisch, Spanisch, Deutsch, Italienisch, Französisch, Portugiesisch und Niederländisch geschult. | chatten | Link | ✅ | ✅ |
stabiler-code:3b | 1,6 GB | 3B | Codierungsmodell | Code | Link | ✅ | |
rouge/replete-coder-qwen2-1.5b:Q8 | 1,9 GB | 1,5B | Codierungsfunktionen + nicht-codierende Daten, vollständig bereinigt und unzensiert (Matte+Tool? noch zu testen) | Code | Link | ✅ | |
Delphin-Phi:2,7b | 1,6 GB | 2,7B | unzensiert | chatten | Link | ✅ | |
CognitiveComputations/dolphin-gemma2:2b | 1,6 GB | 2B | chatten | Link | ✅ | ||
allenporter/xlam:1b | 873 MB | 1B | Werkzeuge | Link | ✅ | ||
sam4096/qwen2tools:0.5b | 352 MB | 0,5B | Werkzeuge | Link | ✅ | ✅ | |
sam4096/qwen2tools:1.5b | 935 MB | 1,5B | Werkzeuge | Link | ✅ | ||
mxbai-embed-large:335m | 670 MB | 335M | Nur Einbettungen | Einbettung | Link | ✅ | ✅ |
nomic-embed-text:v1.5 | 274 MB | 137M | Nur Einbettungen | Einbettung | Link | ✅ | ✅ |
yi-coder:1.5b | 866 MB | 1,5B | Code | Code | Link | ✅ | |
bge-m3 | 1,2 GB | 567M | Nur Einbettungen | Einbettung | Link | ✅ | |
Leserfilm:0,5b | 352 MB | 0,5b | Konvertieren Sie HTML in Markdown | Konvertierung | Link | ✅ | ✅ |
Leserfilm:1.5b | 935 MB | 1,5b | Konvertieren Sie HTML in Markdown | Konvertierung | Link | ✅ | ✅ |
Schildgemma:2b | 1,7 GB | 2b | Bewerten Sie die Sicherheit von Text | Sicherheit | Link | ✅ | |
Lama-Guard3:1b | 1,6 GB | 1b | Bewerten Sie die Sicherheit von Text | Sicherheit | Link | ✅ | |
Granit3-dicht:2b | 1,6 GB | 2b | Chat, Tools, Einbettung | Link | ✅ | ||
Granit3-moe:1b | 822 MB | 1b | Chat, Tools, Einbettung | Link | ✅ | ✅ | |
Lama3.2:1b | 1,3 GB | 1b | Chat, Tools | Link | ✅ | ||
Lama3.2:3b | 2,0 GB | 3b | Chat, Tools | Link | ✅ | ||
smollm:135m | 92 MB | 135m | ?️ kann auf einem Pi 3A+ laufen | ? schwer zu kontrollieren | chatten | Link | ✅ |
smollm:360m | 229 MB | 360m | ?️ kann gut auf einem Pi 4 8GB laufen | chatten | Link | ✅ | ✅ |
smollm:1,7b | 991 MB | 1,7b | chatten | Link | ✅ | ✅ | |
smollm2:135m | 271 MB | 135m | ?️ kann gut auf einem Pi 4 8GB laufen | Chat, Tools | Link | ✅ | ✅ |
smollm2:360m | 726 MB | 360m | ?️ kann auf einem Pi 4 8GB laufen | Chat, Tools | Link | ✅ | ✅ |
smollm2:1,7b | 1,8 GB | 1,7b | Chat, Tools | Link | ✅ |