awesome slms
1.0.0
Esta é a lista dos SLMs que uso no meu Raspberry Pi5 (8 GB de RAM) com Ollama
Nome | Tamanho | Marcação | Observação | Tipo | URL | Bom no Pi5 | Utilizável no Pi5 |
---|---|---|---|---|---|---|---|
códigogemma:2b | 1,6 GB | 2B | Preenchimento do código no meio | código | Link | ✅ | |
gema:2b | 1,7 GB | 2B | bater papo | Link | ✅ | ||
gema2:2b | 1,6 GB | 2B | bater papo | Link | ✅ | ||
tudo mínimo: 22m | 46MB | 22 milhões | Apenas incorporações | incorporação | Link | ✅ | ✅ |
tudo minilm:33m | 67 MB | 33 milhões | Apenas incorporações | incorporação | Link | ✅ | ✅ |
codificador deepseek: 1.3b | 776 MB | 1,3B | Treinado em 87% de código e 13% de linguagem natural | código | Link | ✅ | ✅ |
Tinyllama | 638 MB | 1.1B | bater papo | Link | ✅ | ✅ | |
pequeno golfinho | 637 MB | 1.1B | bater papo | Link | ✅ | ✅ | |
phi3:mini | 2,4 GB | 3B | bater papo | Link | ✅ | ||
phi3.5 | 2,2 GB | 3B | bater papo | Link | ✅ | ||
código do granito: 3b | 2,0 GB | 3B | código | Link | ✅ | ||
qwen2.5:0.5b | 398 MB | 0,5B | bate-papo, ferramentas | Link | ✅ | ✅ | |
qwen2.5:1.5b | 986 MB | 1,5B | bate-papo, ferramentas | Link | ✅ | ||
qwen2.5:3b | 1,9 GB | 3B | bate-papo, ferramentas | Link | ✅ | ||
codificador qwen2.5:1.5b | 986 MB | 1,5B | código, ferramentas | Link | ✅ | ||
qwen2:0,5b | 352 MB | 0,5B | bater papo | Link | ✅ | ✅ | |
qwen2:1.5b | 934 MB | 1,5B | bater papo | Link | ✅ | ||
qwen:0,5b | 395 MB | 0,5B | bater papo | Link | ✅ | ✅ | |
qwen2-matemática:1.5b | 935 MB | 1,5B | Modelo especializado de linguagem matemática | matemática | Link | ✅ | |
codificador estelar: 1b | 726 MB | 1B | Modelo de geração de código | código | Link | ✅ | ✅ |
codificador estrela2:3b | 1,7 GB | 3B | código | Link | ✅ | ||
estávellm2:1.6b | 983 MB | 1,6B | LLM treinado em dados multilíngues em inglês, espanhol, alemão, italiano, francês, português e holandês. | bater papo | Link | ✅ | ✅ |
código estável: 3b | 1,6 GB | 3B | Modelo de codificação | código | Link | ✅ | |
vermelho/replete-coder-qwen2-1.5b:Q8 | 1,9 GB | 1,5B | Capacidades de codificação + dados não codificados, totalmente limpos e sem censura (tapete+ferramenta? a ser testado) | código | Link | ✅ | |
golfinho-phi:2.7b | 1,6 GB | 2,7B | sem censura | bater papo | Link | ✅ | |
Computações Cognitivas/dolphin-gemma2:2b | 1,6 GB | 2B | bater papo | Link | ✅ | ||
allenporter/xlam:1b | 873 MB | 1B | ferramentas | Link | ✅ | ||
sam4096/qwen2tools:0,5b | 352 MB | 0,5B | ferramentas | Link | ✅ | ✅ | |
sam4096/qwen2tools:1.5b | 935 MB | 1,5B | ferramentas | Link | ✅ | ||
mxbai-incorporar-grande:335m | 670MB | 335 milhões | Apenas incorporações | incorporação | Link | ✅ | ✅ |
texto incorporado nonomic:v1.5 | 274MB | 137 milhões | Apenas incorporações | incorporação | Link | ✅ | ✅ |
codificador yi: 1.5b | 866 MB | 1,5B | Código | código | Link | ✅ | |
bge-m3 | 1,2 GB | 567 milhões | Apenas incorporações | incorporação | Link | ✅ | |
leitor-lm:0,5b | 352 MB | 0,5b | converter HTML em Markdown | conversão | Link | ✅ | ✅ |
leitor-lm:1.5b | 935 MB | 1.5b | converter HTML em Markdown | conversão | Link | ✅ | ✅ |
escudogemma:2b | 1,7 GB | 2b | avaliar a segurança do texto | segurança | Link | ✅ | |
guarda-lhama3:1b | 1,6 GB | 1b | avaliar a segurança do texto | segurança | Link | ✅ | |
granito3-denso:2b | 1,6 GB | 2b | bate-papo, ferramentas, incorporação | Link | ✅ | ||
granito3-moe:1b | 822 MB | 1b | bate-papo, ferramentas, incorporação | Link | ✅ | ✅ | |
lhama3.2:1b | 1,3 GB | 1b | bate-papo, ferramentas | Link | ✅ | ||
lhama3.2:3b | 2,0 GB | 3b | bate-papo, ferramentas | Link | ✅ | ||
pequeno: 135m | 92MB | 135m | ?️ pode rodar em um Pi 3A+ | ? difícil de controlar | bater papo | Link | ✅ |
pequeno:360m | 229 MB | 360m | ?️ pode funcionar bem em um Pi 4 8GB | bater papo | Link | ✅ | ✅ |
pequeno: 1,7b | 991 MB | 1.7b | bater papo | Link | ✅ | ✅ | |
pequeno2:135m | 271 MB | 135m | ?️ pode funcionar bem em um Pi 4 8GB | bate-papo, ferramentas | Link | ✅ | ✅ |
pequeno2:360m | 726 MB | 360m | ?️ pode rodar em um Pi 4 8GB | bate-papo, ferramentas | Link | ✅ | ✅ |
pequeno2:1.7b | 1,8 GB | 1.7b | bate-papo, ferramentas | Link | ✅ |