awesome slms
1.0.0
Voici la liste des SLM que j'utilise sur mon Raspberry Pi5 (8 Go de RAM) avec Ollama
Nom | Taille | Étiqueter | Remarque | Gentil | URL | Bien sur Pi5 | Utilisable sur Pi5 |
---|---|---|---|---|---|---|---|
codegemme:2b | 1,6 Go | 2B | Complétion du code à remplir au milieu | code | Lien | ✅ | |
Gemma : 2b | 1,7 Go | 2B | chat | Lien | ✅ | ||
Gemma2:2b | 1,6 Go | 2B | chat | Lien | ✅ | ||
tout-minilm:22m | 46 Mo | 22M | Uniquement les intégrations | intégration | Lien | ✅ | ✅ |
tout-minilm:33m | 67 Mo | 33M | Uniquement les intégrations | intégration | Lien | ✅ | ✅ |
codeur de recherche profonde : 1.3b | 776 Mo | 1,3B | Formé à 87 % de code et à 13 % de langage naturel | code | Lien | ✅ | ✅ |
Tinyllama | 638 Mo | 1.1B | chat | Lien | ✅ | ✅ | |
petit dauphin | 637 Mo | 1.1B | chat | Lien | ✅ | ✅ | |
phi3:mini | 2,4 Go | 3B | chat | Lien | ✅ | ||
phi3.5 | 2,2 Go | 3B | chat | Lien | ✅ | ||
code granit: 3b | 2,0 Go | 3B | code | Lien | ✅ | ||
qwen2.5:0.5b | 398 Mo | 0,5 B | chat, outils | Lien | ✅ | ✅ | |
qwen2.5:1.5b | 986 Mo | 1,5 milliards | chat, outils | Lien | ✅ | ||
qwen2.5:3b | 1,9 Go | 3B | chat, outils | Lien | ✅ | ||
codeur qwen2.5 : 1.5b | 986 Mo | 1,5 milliards | code, outils | Lien | ✅ | ||
qwen2:0.5b | 352 Mo | 0,5 B | chat | Lien | ✅ | ✅ | |
qwen2:1.5b | 934 Mo | 1,5 milliards | chat | Lien | ✅ | ||
qwen : 0,5 b | 395 Mo | 0,5 B | chat | Lien | ✅ | ✅ | |
qwen2-mathématiques : 1,5b | 935 Mo | 1,5 milliards | Modèle de langage mathématique spécialisé | mathématiques | Lien | ✅ | |
codeur étoile : 1b | 726 Mo | 1B | Modèle de génération de code | code | Lien | ✅ | ✅ |
codeur stellaire2:3b | 1,7 Go | 3B | code | Lien | ✅ | ||
stablelm2:1.6b | 983 Mo | 1,6 milliards | LLM s'est formé sur des données multilingues en anglais, espagnol, allemand, italien, français, portugais et néerlandais. | chat | Lien | ✅ | ✅ |
code stable : 3b | 1,6 Go | 3B | Modèle de codage | code | Lien | ✅ | |
rouge/replete-coder-qwen2-1.5b:Q8 | 1,9 Go | 1,5 milliards | Capacités de codage + données non codantes, entièrement nettoyées et non censurées (mat+outil ? à tester) | code | Lien | ✅ | |
dauphin-phi :2,7b | 1,6 Go | 2,7B | non censuré | chat | Lien | ✅ | |
CognitiveComputations/dolphin-gemma2:2b | 1,6 Go | 2B | chat | Lien | ✅ | ||
allenporter/xlam:1b | 873 Mo | 1B | outils | Lien | ✅ | ||
sam4096/qwen2tools :0,5b | 352 Mo | 0,5 B | outils | Lien | ✅ | ✅ | |
sam4096/qwen2tools:1.5b | 935 Mo | 1,5 milliards | outils | Lien | ✅ | ||
mxbai-embed-large:335m | 670 Mo | 335M | Uniquement les intégrations | intégration | Lien | ✅ | ✅ |
texte-intégré-nomique:v1.5 | 274 Mo | 137M | Uniquement les intégrations | intégration | Lien | ✅ | ✅ |
codeur yi : 1.5b | 866 Mo | 1,5 milliards | Code | code | Lien | ✅ | |
bge-m3 | 1,2 Go | 567M | Uniquement les intégrations | intégration | Lien | ✅ | |
lecteur-lm :0,5b | 352 Mo | 0,5b | convertir du HTML en Markdown | conversion | Lien | ✅ | ✅ |
lecteur-lm:1.5b | 935 Mo | 1,5b | convertir du HTML en Markdown | conversion | Lien | ✅ | ✅ |
Gemme de bouclier : 2b | 1,7 Go | 2b | évaluer la sécurité du texte | sécurité | Lien | ✅ | |
garde-lama3:1b | 1,6 Go | 1b | évaluer la sécurité du texte | sécurité | Lien | ✅ | |
granite3-dense:2b | 1,6 Go | 2b | chat, outils, intégration | Lien | ✅ | ||
granite3-moe : 1b | 822 Mo | 1b | chat, outils, intégration | Lien | ✅ | ✅ | |
lama3.2:1b | 1,3 Go | 1b | chat, outils | Lien | ✅ | ||
lama3.2:3b | 2,0 Go | 3b | chat, outils | Lien | ✅ | ||
hauteur:135m | 92 Mo | 135m | ?️ peut fonctionner sur un Pi 3A+ | ? difficile à contrôler | chat | Lien | ✅ |
petite vitesse : 360 m | 229 Mo | 360m | ?️ peut bien fonctionner sur un Pi 4 8 Go | chat | Lien | ✅ | ✅ |
petit:1.7b | 991 Mo | 1,7b | chat | Lien | ✅ | ✅ | |
petite vitesse2:135m | 271 Mo | 135m | ?️ peut bien fonctionner sur un Pi 4 8 Go | chat, outils | Lien | ✅ | ✅ |
petite vitesse2:360m | 726 Mo | 360m | ?️ peut fonctionner sur un Pi 4 8 Go | chat, outils | Lien | ✅ | ✅ |
smollm2:1.7b | 1,8 Go | 1,7b | chat, outils | Lien | ✅ |