awesome slms
1.0.0
Esta es la lista de los SLM que uso en mi Raspberry Pi5 (8GB RAM) con Ollama
Nombre | Tamaño | Etiqueta | Observación | Amable | URL | Bueno en Pi5 | Utilizable en Pi5 |
---|---|---|---|---|---|---|---|
códigogema:2b | 1,6GB | 2B | Completar código de relleno en el medio | código | Enlace | ✅ | |
gema:2b | 1,7GB | 2B | charlar | Enlace | ✅ | ||
gema2:2b | 1,6GB | 2B | charlar | Enlace | ✅ | ||
todo mínimo: 22m | 46MB | 22M | Sólo incrustaciones | incrustar | Enlace | ✅ | ✅ |
todo mínimo: 33m | 67MB | 33M | Sólo incrustaciones | incrustar | Enlace | ✅ | ✅ |
codificador de búsqueda profunda: 1.3b | 776MB | 1.3B | Capacitado tanto en 87% de código como en 13% de lenguaje natural. | código | Enlace | ✅ | ✅ |
Tinyllama | 638MB | 1.1B | charlar | Enlace | ✅ | ✅ | |
pequeñodelfín | 637MB | 1.1B | charlar | Enlace | ✅ | ✅ | |
fi3:mini | 2,4 GB | 3B | charlar | Enlace | ✅ | ||
phi3.5 | 2,2 GB | 3B | charlar | Enlace | ✅ | ||
código de granito: 3b | 2,0 GB | 3B | código | Enlace | ✅ | ||
qwen2.5:0.5b | 398MB | 0,5 mil millones | chat, herramientas | Enlace | ✅ | ✅ | |
qwen2.5:1.5b | 986MB | 1,5 mil millones | chat, herramientas | Enlace | ✅ | ||
qwen2.5:3b | 1,9GB | 3B | chat, herramientas | Enlace | ✅ | ||
codificador qwen2.5: 1.5b | 986MB | 1,5 mil millones | código, herramientas | Enlace | ✅ | ||
qwen2:0.5b | 352MB | 0,5 mil millones | charlar | Enlace | ✅ | ✅ | |
qwen2:1.5b | 934MB | 1,5 mil millones | charlar | Enlace | ✅ | ||
qwen:0.5b | 395MB | 0,5 mil millones | charlar | Enlace | ✅ | ✅ | |
qwen2-matemáticas: 1.5b | 935MB | 1,5 mil millones | Modelo de lenguaje matemático especializado. | matemáticas | Enlace | ✅ | |
codificador de estrellas: 1b | 726MB | 1B | Modelo de generación de código | código | Enlace | ✅ | ✅ |
codificador de estrellas2:3b | 1,7GB | 3B | código | Enlace | ✅ | ||
establelm2:1.6b | 983MB | 1,6 mil millones | LLM capacitado en datos multilingües en inglés, español, alemán, italiano, francés, portugués y holandés. | charlar | Enlace | ✅ | ✅ |
código estable: 3b | 1,6GB | 3B | Modelo de codificación | código | Enlace | ✅ | |
colorete/codificador-repleto-qwen2-1.5b:Q8 | 1,9GB | 1,5 mil millones | Capacidades de codificación + datos sin codificación, completamente limpios y sin censura (¿alfombra+herramienta? por probar) | código | Enlace | ✅ | |
delfín-phi:2.7b | 1,6GB | 2,7 mil millones | sin censura | charlar | Enlace | ✅ | |
Cálculos cognitivos/dolphin-gemma2:2b | 1,6GB | 2B | charlar | Enlace | ✅ | ||
allenporter/xlam:1b | 873 MB | 1B | herramientas | Enlace | ✅ | ||
sam4096/qwen2herramientas:0.5b | 352MB | 0,5 mil millones | herramientas | Enlace | ✅ | ✅ | |
sam4096/qwen2herramientas:1.5b | 935MB | 1,5 mil millones | herramientas | Enlace | ✅ | ||
mxbai-incrustar-grande:335m | 670MB | 335M | Sólo incrustaciones | incrustar | Enlace | ✅ | ✅ |
texto-integrado-nomic:v1.5 | 274MB | 137M | Sólo incrustaciones | incrustar | Enlace | ✅ | ✅ |
codificador yi: 1.5b | 866MB | 1,5 mil millones | Código | código | Enlace | ✅ | |
bge-m3 | 1,2 GB | 567M | Sólo incrustaciones | incrustar | Enlace | ✅ | |
lector-lm:0.5b | 352MB | 0.5b | convertir HTML a Markdown | conversión | Enlace | ✅ | ✅ |
lector-lm:1.5b | 935MB | 1.5b | convertir HTML a Markdown | conversión | Enlace | ✅ | ✅ |
escudogema:2b | 1,7GB | 2b | evaluar la seguridad del texto | seguridad | Enlace | ✅ | |
guardia-llama3:1b | 1,6GB | 1b | evaluar la seguridad del texto | seguridad | Enlace | ✅ | |
granito3-denso: 2b | 1,6GB | 2b | chat, herramientas, incrustación | Enlace | ✅ | ||
granito3-moe:1b | 822MB | 1b | chat, herramientas, incrustación | Enlace | ✅ | ✅ | |
llama3.2:1b | 1,3GB | 1b | chat, herramientas | Enlace | ✅ | ||
llama3.2:3b | 2,0 GB | 3b | chat, herramientas | Enlace | ✅ | ||
pequeño: 135m | 92MB | 135m | ?️ puede ejecutarse en un Pi 3A+ | ? difícil de controlar | charlar | Enlace | ✅ |
pequeño: 360 m | 229MB | 360m | ?️ puede funcionar bien en un Pi 4 8GB | charlar | Enlace | ✅ | ✅ |
pequeño: 1.7b | 991MB | 1.7b | charlar | Enlace | ✅ | ✅ | |
pequeño2:135m | 271MB | 135m | ?️ puede funcionar bien en un Pi 4 8GB | chat, herramientas | Enlace | ✅ | ✅ |
pequeño2:360m | 726 MB | 360m | ?️ se puede ejecutar en un Pi 4 de 8 GB | chat, herramientas | Enlace | ✅ | ✅ |
smollm2:1.7b | 1,8 GB | 1.7b | chat, herramientas | Enlace | ✅ |