(Mise à jour du 27 novembre 2023) L'objectif initial du référentiel était de comparer certains modèles plus petits (7B et 13B) pouvant être exécutés sur du matériel grand public afin que chaque modèle ait un score pour un ensemble de questions de GPT-4. Mais j’ai réalisé qu’à mesure que de nombreux modèles plus performants apparaissent, le processus d’évaluation et de comparaison pourrait ne pas suffire.
Par conséquent, je ne mets que des liens Colab WebUI pour les modèles les plus récents et vous pouvez les essayer vous-mêmes en quelques clics. Après tout, l'efficacité d'un modèle de langage dépend fortement de son adéquation à votre cas d'utilisation spécifique. En essayant les modèles, vous pouvez évaluer leurs performances et déterminer celui qui correspond le mieux à vos besoins.
Ces modèles peuvent être exécutés sur du matériel grand public et sont généralement bons (d'après les suggestions de Reddit et ma propre expérience). Essayez-les vous-mêmes (appuyez sur le bouton « Ouvrir dans Colab ») !
Modèle | Lien | Lien Colab | Date d'ajout | Note |
---|---|---|---|---|
zephyr-7B-bêta-GGUF | https://huggingface.co/TheBloke/zephyr-7B-beta-GGUF | 2023/11/27 | Jeu de rôle ok, pas censuré | |
OpenHermes-2.5-Mistral-7B-GGUF | https://huggingface.co/TheBloke/OpenHermes-2.5-Mistral-7B-GGUF | 2023/11/27 | Bon jeu de rôle, pas censuré | |
dauphin-2.2.1-mistral-7B-GGUF | https://huggingface.co/TheBloke/dolphin-2.2.1-mistral-7B-GGUF | 2023/11/27 | Jeu de rôle ok, pas censuré | |
chat-neural-7B-v3-1-GGUF | https://huggingface.co/TheBloke/neural-chat-7B-v3-1-GGUF | 2023/11/27 | Jeu de rôle correct, pas censuré ; quelques défauts de logique | |
openchat_3.5-16k-GGUF | https://huggingface.co/TheBloke/openchat_3.5-16k-GGUF | 2023/11/27 | Censuré | |
Starling-LM-7B-alpha-GGUF | https://huggingface.co/TheBloke/Starling-LM-7B-alpha-GGUF | 2023/11/29 | Censuré; très bien noté sur Reddit | |
Orque-2-7B-GGUF | https://huggingface.co/TheBloke/Orca-2-7B-GGUF | 2023/11/29 | Censuré | |
Orque-2-13B-GGUF | https://huggingface.co/TheBloke/Orca-2-13B-GGUF | 2023/11/29 | Censuré, quelques défauts logiques étranges pires que la version 7B | |
MythoMist-7B-GGUF | https://huggingface.co/TheBloke/MythoMist-7B-GGUF | 2023/11/29 | Jeu de rôle correct, pas censuré ; quelques défauts de logique | |
NeuralHermes-2.5-Mistral-7B-GGUF | https://huggingface.co/TheBloke/NeuralHermes-2.5-Mistral-7B-GGUF | 2023/12/05 | Bon jeu de rôle, pas censuré | |
stablelm-zephyr-3b-GGUF | https://huggingface.co/TheBloke/stablelm-zephyr-3b-GGUF | 2023/12/11 | 3B ; jeu de rôle ok ; non censuré; quelques défauts de logique | |
deepseek-llm-7B-chat-GGUF | https://huggingface.co/TheBloke/deepseek-llm-7B-chat-GGUF | 2023/12/11 | Censuré | |
Mistral-7B-Instruct-v0.2-GGUF | https://huggingface.co/TheBloke/Mistral-7B-Instruct-v0.2-GGUF | 2023/12/13 | Partiellement censuré; jeu de rôle ok ; très bien noté sur Reddit | |
Mixtral-8x7B-Instruct-v0.1-GGUF | https://huggingface.co/TheBloke/Mixtral-8x7B-Instruct-v0.1-GGUF | 2023/12/13 | modèle du ministère de l'Environnement ; partiellement censuré; jeu de rôle ok | |
deepsex-34b-GGUF | https://huggingface.co/TheBloke/deepsex-34b-GGUF | 2023/12/14 | 34B ; Modèle NSFW | |
phi-2 | https://huggingface.co/microsoft/phi-2 | 2023/12/15 | 2,7B ; Modèle de base ; | |
Xwin-MLewd-13B-v0.2-GGUF | https://huggingface.co/TheBloke/Xwin-MLewd-13B-v0.2-GGUF | 2023/12/15 | 13B ; Modèle NSFW | |
MythoMax-L2-13B-GGUF | https://huggingface.co/TheBloke/MythoMax-L2-13B-GGUF | 2023/12/15 | 13B ; Censuré; jeu de rôle ok | |
LLaMA2-13B-Tiefighter-GGUF | https://huggingface.co/TheBloke/LLaMA2-13B-Tiefighter-GGUF | 2023/12/15 | 13B ; bon jeu de rôle | |
LLaMA2-13B-Psyfighter2-GGUF | https://huggingface.co/TheBloke/LLaMA2-13B-Psyfighter2-GGUF | 2023/12/15 | 13B ; Partiellement censuré; jeu de rôle ok ; recommandé sur Reddit | |
Noromaid-13B-v0.1.1-GGUF | https://huggingface.co/TheBloke/Noromaid-13B-v0.1.1-GGUF | 2023/12/15 | 13B ; Modèle NSFW ; bon jeu de rôle | |
dauphin-2.5-mixtral-8x7b-GGUF | https://huggingface.co/TheBloke/dolphin-2.5-mixtral-8x7b-GGUF | 2023/12/20 | modèle du ministère de l'Environnement ; prétend n'être pas censuré mais refuse certaines demandes ; jeu de rôle inutilisable | |
SOLAR-10.7B-Instruct-v1.0-GGUF | https://huggingface.co/TheBloke/SOLAR-10.7B-Instruct-v1.0-GGUF | 2023/12/21 | 10,7B ; Censuré; jeu de rôle ok | |
Nous-Hermes-2-SOLAR-10.7B-GGUF | https://huggingface.co/TheBloke/Nous-Hermes-2-SOLAR-10.7B-GGUF | 2024/01/08 | 10,7B ; Partiellement censuré ; bon jeu de rôle | |
openchat-3.5-0106-GGUF | https://huggingface.co/TheBloke/openchat-3.5-0106-GGUF | 2024/01/12 | Jeu de rôle et écriture créative bons ; non censuré | |
Mistral-7B-Instruct-v0.2-code-ft-GGUF | https://huggingface.co/TheBloke/Mistral-7B-Instruct-v0.2-code-ft-GGUF | 2024/01/12 | Modèle de codage | |
Panda-7B-v0.1-GGUF | https://huggingface.co/TheBloke/Panda-7B-v0.1-GGUF | 2024/01/12 | Jeu de rôle ok ; écriture créative bonne ; partiellement censuré | |
LLaMA-Pro-8B-GGUF | https://huggingface.co/TheBloke/LLaMA-Pro-8B-GGUF | 2024/01/16 | Prétend être bon en mathématiques/codage ; qualité tellement | |
dauphin-2.6-mistral-7B-dpo-laser-GGUF | https://huggingface.co/TheBloke/dolphin-2.6-mistral-7B-dpo-laser-GGUF | 2024/01/16 | Non censuré ; Bonne qualité; bon jeu de rôle | |
laserextral-GGUF | https://huggingface.co/dagbs/laserxtral-GGUF | 2024/01/17 | Modèle MOE 4x7B ; moitié de mémoire que Mixtral ; non censuré; bon jeu de rôle | |
Mixtral_7Bx2_MoE-GGUF | https://huggingface.co/TheBloke/Mixtral_7Bx2_MoE-GGUF | 2024/01/23 | Modèle MOE 2x7B ; non censuré; jeu de rôle ok | |
CapybaraHermes-2.5-Mistral-7B-GGUF | https://huggingface.co/TheBloke/CapybaraHermes-2.5-Mistral-7B-GGUF | 2024/02/06 | Censuré; | |
code-stable-3b-GGUF | https://huggingface.co/TheBloke/stable-code-3b-GGUF/ | 2024/02/06 | 3B ; Modèle de codage ; qualité probablement trop petite | |
EstopianMaid-13B-GGUF | https://huggingface.co/TheBloke/EstopianMaid-13B-GGUF | 2024/02/06 | 13B ; Modèle de jeu de rôle | |
gemma-7b-it-GGUF | https://huggingface.co/mlabonne/gemma-7b-it-GGUF/ | 2024/02/28 | 7B ; Censuré | |
StarCoder2-15B-GGUF | https://huggingface.co/second-state/StarCoder2-15B-GGUF | 2024/03/20 | 15B ; modèle de codage ; très voté sur r/LocalLLaMA | |
Qwen1.5-7B-Chat-GGUF | https://huggingface.co/Qwen/Qwen1.5-7B-Chat-GGUF | 2024/03/20 | 7B ; Censuré; très voté sur r/LocalLLaMA | |
Qwen1.5-14B-Chat-GGUF | https://huggingface.co/Qwen/Qwen1.5-14B-Chat-GGUF | 2024/03/20 | 14B ; Censuré; très voté sur r/LocalLLaMA | |
Hermes-2-Pro-Mistral-7B-GGUF | https://huggingface.co/NousResearch/Hermes-2-Pro-Mistral-7B-GGUF | 2024/03/22 | 7B ; Non censuré ; jeu de rôle ok ; très bien classé sur Huggingface | |
Nous-Hermes-2-Mistral-7B-DPO-GGUF | https://huggingface.co/NousResearch/Nous-Hermes-2-Mistral-7B-DPO-GGUF | 2024/03/22 | 7B ; Partiellement censuré; bon jeu de rôle ; très bien classé sur Huggingface | |
stable-code-instruct-3b-GGUF | https://huggingface.co/bartowski/stable-code-instruct-3b-GGUF | 2024/03/27 | 3B ; modèle de génération de code adapté aux instructions | |
Qwen1.5-MoE-A2.7B-Chat-GPTQ-Int4 | https://huggingface.co/Qwen/Qwen1.5-MoE-A2.7B-Chat-GPTQ-Int4 | 2024/04/03 | ministère de l'Environnement ; Faible encombrement ; quelques erreurs logiques | |
Poulpe-v2 | https://huggingface.co/NexaAIDev/Octopus-v2/ | 2024/04/07 | 2B ; non quantifié; optimisé pour les API Android sur l'appareil | |
codegemma-7b-it-GGUF | https://huggingface.co/lmstudio-community/codegemma-7b-it-GGUF | 2024/04/18 | 7B ; modèle de codage | |
CodeQwen1.5-7B-Chat-GGUF | https://huggingface.co/Qwen/CodeQwen1.5-7B-Chat-GGUF | 2024/04/18 | 7B ; modèle de codage | |
AssistantLM-2-7B-GGUF | https://huggingface.co/MaziyarPanahi/WizardLM-2-7B-GGUF | 2024/04/18 | 7B ; Censuré | |
Meta-Llama-3-8B-Instruct-GGUF | https://huggingface.co/QuantFactory/Meta-Llama-3-8B-Instruct-GGUF | 2024/04/19 | 8B ; Censuré | |
dauphin-2.9-llama3-8b-gguff | https://huggingface.co/cognitivecomputations/dolphin-2.9-llama3-8b-gguff | 2024/04/22 | 8B ; Non censuré ; la logique semble dégradée de Llama-3-8B | |
Lexi-Llama-3-8B-Non censuré-GGUF | https://huggingface.co/Orenguteng/Lexi-Llama-3-8B-Uncensored-GGUF | 2024/04/24 | 8B ; Non censuré | |
Llama3-8B-Chinois-Chat-GGUF | https://huggingface.co/QuantFactory/Llama3-8B-Chinese-Chat-GGUF | 2024/04/24 | 8B ; Chinois | |
Phi-3-mini-4k-instruct-gguf | https://huggingface.co/microsoft/Phi-3-mini-4k-instruct-gguf | 2024/04/24 | 3,8B ; Censuré; Rapide | |
Lama-3-8B-Instruct-32k-v0.1-GGUF | https://huggingface.co/MaziyarPanahi/Llama-3-8B-Instruct-32k-v0.1-GGUF | 2024/04/25 | 8B ; Contexte 32K ; bon pour résumer un long texte | |
starcoder2-15b-instruct-v0.1-GGUF | https://huggingface.co/bartowski/starcoder2-15b-instruct-v0.1-GGUF | 2024/05/06 | 15B ; modèle de codage | |
Hermes-2-Pro-Llama-3-8B-GGUF | https://huggingface.co/NousResearch/Hermes-2-Pro-Llama-3-8B-GGUF | 2024/05/06 | 8B ; Partiellement censuré; JSON, utilisation des outils, etc. | |
Lama-3-ChatQA-1.5-8B-GGUF | https://huggingface.co/bartowski/Llama-3-ChatQA-1.5-8B-GGUFF | 2024/05/15 | 8B ; Non censuré | |
Hermes-2-Theta-Llama-3-8B-GGUF | https://huggingface.co/NousResearch/Hermes-2-Theta-Llama-3-8B-GGUF | 2024/05/17 | 8B ; Censuré; JSON, utilisation des outils, etc. | |
fleur-v5.1-9b-GGUF | https://huggingface.co/bartowski/blossom-v5.1-9b-GGUF | 2024/05/17 | 9B ; Ensemble de données mixte Wizard/Orca/Math/Chinois/Anglais | |
faucon-11B-GGUF | https://huggingface.co/bartowski/falcon-11B-GGUF | 2024/05/17 | 11B ; modèle de base pré-entraîné brut | |
lama-3-cat-8b-instruct-v1-GGUFF | https://huggingface.co/bartowski/llama-3-cat-8b-instruct-v1-GGUFF | 2024/05/20 | 8B ; partiellement censuré; fidélité des instructions du système ; Jeu de rôle | |
Yi-1.5-9B-Chat-GGUF | https://huggingface.co/bartowski/Yi-1.5-9B-Chat-GGUF | 2024/05/20 | 9B ; Censuré | |
SFR-Itératif-DPO-LLaMA-3-8B-R-GGUF | https://huggingface.co/bartowski/SFR-Iterative-DPO-LLaMA-3-8B-R-GGUF | 2024/05/22 | 8B ; Partiellement censuré | |
Lama-3-Lumimaid-8B-v0.1-OAS-GGUF-IQ-Imatrix | https://huggingface.co/Lewdiculous/Llama-3-Lumimaid-8B-v0.1-OAS-GGUF-IQ-Imatrix | 2024/05/22 | 8B ; Jeu de rôle; Formé pour ne pas refuser les demandes ; Semble être formé sur les données Quora | |
Mistral-7B-Instruct-v0.3-GGUF | https://huggingface.co/MaziyarPanahi/Mistral-7B-Instruct-v0.3-GGUF | 2024/05/23 | 7B ; Censuré | |
L3-8B-Stheno-v3.1-GGUF-IQ-Imatrix | https://huggingface.co/Lewdiculous/L3-8B-Stheno-v3.1-GGUF-IQ-Imatrix | 2024/05/30 | 8B ; formé pour un jeu de rôle 1 contre 1 non censuré | |
aya-23-8B-GGUF | https://huggingface.co/bartowski/aya-23-8B-GGUF | 2024/05/30 | 8B ; Censuré | |
LLaMA3-itératif-DPO-final-GGUF | https://huggingface.co/bartowski/LLaMA3-iterative-DPO-final-GGUF | 2024/05/30 | 8B ; Censuré | |
openchat-3.6-8b-20240522-GGUF | https://huggingface.co/bartowski/openchat-3.6-8b-20240522-GGUF | 2024/06/04 | 8B ; Partiellement censuré | |
Meta-Llama-3-8B-Instruct-abliterated-v3-GGUF | https://huggingface.co/failspy/Meta-Llama-3-8B-Instruct-abliterated-v3-GGUF | 2024/06/04 | 8B ; Non censuré ; | |
NeuralDaredevil-8B-ablitéré-GGUF | https://huggingface.co/QuantFactory/NeuralDaredevil-8B-abliterated-GGUF | 2024/06/19 | 8B ; Non censuré ; | |
Qwen2-7B-Instruct-GGUF | https://huggingface.co/Qwen/Qwen2-7B-Instruct-GGUF | 2024/06/24 | 7B ; Censuré | |
DeepSeek-Coder-V2-Lite-Instruct-GGUF | https://huggingface.co/lmstudio-community/DeepSeek-Coder-V2-Lite-Instruct-GGUF | 2024/06/27 | 16B ; Instruire le modèle de codage | |
internlm2_5-7b-chat-gguf | https://huggingface.co/internlm/internlm2_5-7b-chat-gguf | 2024/07/11 | 7B ; Censuré; Contexte long ; Raisonnement et utilisation des outils ; | |
gemma-2-9b-it-GGUF | https://huggingface.co/bartowski/gemma-2-9b-it-GGUF | 2024/07/11 | 9B ; Censuré | |
Smegmma-Deluxe-9B-v1-GGUF | https://huggingface.co/bartowski/Smegmma-Deluxe-9B-v1-GGUF | 2024/07/22 | 9B ; Gemma moins censurée (refuse quand même certaines demandes) ; Jeu de rôle | |
h2o-danube3-4b-chat-GGUF | https://huggingface.co/h2oai/h2o-danube3-4b-chat-GGUF | 2024/07/17 | 4B ; Partiellement censuré | |
Tigre-Gemma-9B-v1-GGUF | https://huggingface.co/bartowski/Tiger-Gemma-9B-v1-GGUF | 2024/07/17 | 9B ; Non censuré ; mais semble avoir quelques défauts de logique | |
Gemmasutra-9B-v1-GGUF | https://huggingface.co/TheDrummer/Gemmasutra-9B-v1-GGUF | 2024/07/24 | 9B ; Jeu de rôle avec une certaine censure | |
Meta-Llama-3.1-8B-Instruct-GGUF | https://huggingface.co/lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF | 2024/07/25 | 8B ; Censuré | |
Mistral-Nemo-Instruct-2407-GGUF | https://huggingface.co/second-state/Mistral-Nemo-Instruct-2407-GGUF | 2024/07/25 | 12.2B ; Partiellement non censuré ; Recommandé par les rédacteurs | |
Céleste-12B-V1.6_iMatrix_GGUF | https://huggingface.co/MarsupialAI/Celeste-12B-V1.6_iMatrix_GGUF | 2024/07/30 | 12B ; Modèle de jeu de rôle et d'écriture d'histoires, non censuré | |
Hermes-3-Llama-3.1-8B-GGUF | https://huggingface.co/NousResearch/Hermes-3-Llama-3.1-8B-GGUF | 2024/08/19 | 8B ; Non censuré | |
Gemma-2-9B-It-SPPO-Iter3-GGUF | https://huggingface.co/bartowski/Gemma-2-9B-It-SPPO-Iter3-GGUF | 2024/08/19 | 9B ; Recommandé sur r/LocalLLaMA pour le résumé | |
Lama-3.1-Storm-8B-GGUF | https://huggingface.co/bartowski/Llama-3.1-Storm-8B-GGUF | 2024/08/20 | 8B ; Censuré | |
Phi-3.5-mini-instruct-GGUF | https://huggingface.co/lmstudio-community/Phi-3.5-mini-instruct-GGUF | 2024/08/21 | 3,5B ; Censuré, petit et rapide | |
Phi-3.5-mini-instruct_Uncensored-GGUF | https://huggingface.co/bartowski/Phi-3.5-mini-instruct_Uncensored-GGUF | 2024/08/26 | 3,5B ; Non censuré, petit et rapide, mais présente des défauts logiques et des résultats incohérents | |
NemoMix-Unleashed-12B-GGUF | https://huggingface.co/bartowski/NemoMix-Unleashed-12B-GGUF | 2024/08/26 | 12B ; Partiellement censuré, Jeux de rôle et narration | |
Mistral-NeMo-Minitron-8B-Base-GGUF | https://huggingface.co/QuantFactory/Mistral-NeMo-Minitron-8B-Base-GGUF | 2024/08/26 | 8B ; Modèle de base | |
Yi-Coder-9B-Chat-GGUF | https://huggingface.co/bartowski/Yi-Coder-9B-Chat-GGUF | 2024/09/05 | 9B ; Modèle de codage des instructions | |
Lama-3.2-3B-Instruct-Q8_0-GGUF | https://huggingface.co/hugging-quants/Llama-3.2-3B-Instruct-Q8_0-GGUF | 2024/10/01 | 3B ; Petit modèle censuré | |
Qwen2.5-7B-Instruct-GGUF | https://huggingface.co/bartowski/Qwen2.5-7B-Instruct-GGUF | 2024/10/01 | 7B ; Censuré, recommandé sur r/LocalLLaMA | |
Qwen2.5-Coder-7B-Instruct-GGUF | https://huggingface.co/bartowski/Qwen2.5-Coder-7B-Instruct-GGUF | 2024/10/01 | 7B ; Modèle de codage des instructions, recommandé sur r/LocalLLaMA | |
Lama-3.1-8B-Lexi-Non censuré-V2-GGUF | https://huggingface.co/Orenguteng/Llama-3.1-8B-Lexi-Uncensored-V2-GGUF | 2024/10/15 | 8B ; Partiellement censuré | |
SuperNova-Médius-GGUF | https://huggingface.co/arcee-ai/SuperNova-Medius-GGUF | 2024/10/15 | 14B ; Censuré, recommandé sur r/LocalLLaMA | |
Lama-3.2-3B-Instruct-non censuré-GGUF | https://huggingface.co/mradermacher/Llama-3.2-3B-Instruct-uncensored-GGUF | 2024/10/15 | 3B ; Petit, non censuré | |
Ministral-8B-Instruct-2410-HF-GGUF-TEST | https://huggingface.co/bartowski/Ministral-8B-Instruct-2410-HF-GGUF-TEST | 2024/10/21 | 8B ; Partiellement censuré | |
granite-3.0-8b-instruct-GGUF | https://huggingface.co/bartowski/granite-3.0-8b-instruct-GGUF | 2024/10/28 | 8B ; Censuré | |
aya-étendue-8b-GGUF | https://huggingface.co/bartowski/aya-expanse-8b-GGUF | 2024/10/28 | 8B ; Censuré | |
Qwen2.5-Coder-14B-Instruct-GGUF | https://huggingface.co/Qwen/Qwen2.5-Coder-14B-Instruct-GGUF | 2024/11/12 | 14B ; Modèle de codage, bon dans sa taille |
Ces modèles fonctionnent mieux parmi les modèles que j'ai testés sur mon matériel (i5-12490F, 32 Go de RAM, RTX 3060 Ti GDDR6X 8 Go de VRAM) : (Remarque : parce que llama.cpp a apporté quelques modifications importantes à la prise en charge des anciens modèles ggml. Certains anciens Les versions ggml répertoriées ci-dessous peuvent ne pas fonctionner correctement sur le lama.cpp actuel. Mais il devrait y avoir des équivalents GPTQ ou des versions ggml plus récentes pour les modèles.)
NOTE:
Nom_modèle | Score_moy. | Colab_Lien | Date_Ajouté | Lien |
---|---|---|---|---|
Mistral-7B-OpenOrca (utilisant oobabooga/text-generation-webui) | 10h00 | 2023/10/08 | https://huggingface.co/TheBloke/Mistral-7B-OpenOrca-GGUF | |
Llama-2-13B-chat (en utilisant oobabooga/text-generation-webui) | 9h65 | 2023/07/20 | https://huggingface.co/TheBloke/Llama-2-13B-chat-GGML | |
Wizard-vicuna-13B.ggml.q4_0 (en utilisant lama.cpp) | 9.63 | 2023/05/07 | https://huggingface.co/TheBloke/wizard-vicuna-13B-GGML | |
Nous-Capybara-7B (utilisant oobabooga/text-generation-webui) | 9.56 | 2023/10/08 | https://huggingface.co/TheBloke/Nous-Capybara-7B-GGUF | |
vicuna-13B-v1.5 (en utilisant oobabooga/text-generation-webui) | 9.53 | 2023/08/09 | https://huggingface.co/TheBloke/vicuna-13B-v1.5-GGML | |
WizardLM-13B-1.0-GPTQ (utilisant oobabooga/text-generation-webui) | 9.53 | 2023/05/29 | https://huggingface.co/TheBloke/wizardLM-13B-1.0-GPTQ | |
airoboros-13B-gpt4-1.4-GPTQ (en utilisant oobabooga/text-generation-webui) | 9h50 | 2023/06/30 | https://huggingface.co/TheBloke/airoboros-13B-gpt4-1.4-GPTQ | |
Nous-Hermes-13B-GPTQ (utilisant oobabooga/text-generation-webui) | 9.44 | 2023/06/03 | https://huggingface.co/TheBloke/Nous-Hermes-13B-GPTQ/tree/main | |
Dolphin-Llama-13B (en utilisant oobabooga/text-generation-webui) | 9h38 | 2023/07/24 | https://huggingface.co/TheBloke/Dolphin-Llama-13B-GGML | |
Mistral-7B-Instruct-v0.1 (utilisant oobabooga/text-generation-webui) | 9.37 | 2023/10/08 | https://huggingface.co/TheBloke/Mistral-7B-Instruct-v0.1-GGUF | |
OpenOrca-Platypus2-13B (en utilisant oobabooga/text-generation-webui) | 9.37 | 2023/08/15 | https://huggingface.co/TheBloke/OpenOrca-Platypus2-13B-GGML | |
airoboros-l2-13b-gpt4-2.0 (en utilisant oobabooga/text-generation-webui) | 9.34 | 2023/08/01 | https://huggingface.co/TheBloke/airoboros-l2-13b-gpt4-2.0-GGML | |
Chronos-13B-v2 (utilisant oobabooga/text-generation-webui) | 9h31 | 2023/08/09 | https://huggingface.co/TheBloke/Chronos-13B-v2-GGML | |
vicuna-13b-v1.3.0-GPTQ (en utilisant oobabooga/text-generation-webui) | 9h31 | 2023/06/29 | https://huggingface.co/TheBloke/vicuna-13b-v1.3.0-GPTQ | |
MythoLogic-13B (en utilisant oobabooga/text-generation-webui) | 9h31 | 2023/07/20 | https://huggingface.co/TheBloke/MythoLogic-13B-GGML | |
Selfee-13B-GPTQ (en utilisant oobabooga/text-generation-webui) | 9.28 | 2023/06/07 | https://huggingface.co/TheBloke/Selfee-13B-GPTQ | |
WizardLM-13B-V1.2 (utilisant oobabooga/text-generation-webui) | 9.28 | 2023/07/26 | https://huggingface.co/TheBloke/WizardLM-13B-V1.2-GGML | |
minotaure-13B-GPTQ (en utilisant oobabooga/text-generation-webui) | 9.28 | 2023/06/09 | https://huggingface.co/TheBloke/minotaur-13B-GPTQ | |
Pygmalion-2-13B-SuperCOT2 (utilisant oobabooga/text-generation-webui) | 9h20 | 2023/09/21 | https://huggingface.co/TheBloke/Pygmalion-2-13B-SuperCOT2-GGUF | |
Athena-v1 (en utilisant oobabooga/text-generation-webui) | 9.19 | 2023/08/31 | https://huggingface.co/TheBloke/Athena-v1-GGUF | |
PuddleJumper-13B (utilisant oobabooga/text-generation-webui) | 9.1875 | 2023/08/29 | https://huggingface.co/TheBloke/PuddleJumper-13B-GGUF | |
Nous-Hermes-Llama2 (en utilisant oobabooga/text-generation-webui) | 9.17 | 2023/07/24 | https://huggingface.co/TheBloke/Nous-Hermes-Llama2-GGML | |
Luban-13B (en utilisant oobabooga/text-generation-webui) | 9h15 | 2023/08/31 | https://huggingface.co/TheBloke/Luban-13B-GGUF | |
MythoBoros-13B (utilisant oobabooga/text-generation-webui) | 9h15 | 2023/07/24 | https://huggingface.co/TheBloke/MythoBoros-13B-GGML | |
13B-Ouroboros (en utilisant oobabooga/text-generation-webui) | 9.11 | 2023/07/27 | https://huggingface.co/TheBloke/13B-Ouroboros-GGML | |
tulu-13B-GPTQ (en utilisant oobabooga/text-generation-webui) | 9.06 | 2023/06/13 | https://huggingface.co/TheBloke/tulu-13B-GPTQ | |
AlpacaCielo-13B (en utilisant oobabooga/text-generation-webui) | 9.03125 | 2023/07/27 | https://huggingface.co/TheBloke/AlpacaCielo-13B-GGML | |
StableBeluga-13B (utilisant oobabooga/text-generation-webui) | 9 | 2023/08/01 | https://huggingface.co/TheBloke/StableBeluga-13B-GGML | |
Chronos-Hermes-13B-v2 (utilisant oobabooga/text-generation-webui) | 8,97 | 2023/08/10 | https://huggingface.co/TheBloke/Chronos-Hermes-13B-v2-GGML | |
OpenBuddy-Llama2-13B-v11.1 (en utilisant oobabooga/text-generation-webui) | 8,97 | 2023/09/05 | https://huggingface.co/TheBloke/OpenBuddy-Llama2-13B-v11.1-GGUF | |
Camel-Platypus2-13B (en utilisant oobabooga/text-generation-webui) | 8,94 | 2023/08/15 | https://huggingface.co/TheBloke/Camel-Platypus2-13B-GGML | |
airoboros-l2-13b-gpt4-m2.0 (en utilisant oobabooga/text-generation-webui) | 8,94 | 2023/09/21 | https://huggingface.co/TheBloke/airoboros-l2-13b-gpt4-m2.0-GGUF | |
UltraLM-13B-GPTQ (utilisant oobabooga/text-generation-webui) | 8,89 | 2023/06/30 | https://huggingface.co/TheBloke/UltraLM-13B-GPTQ | |
13B-HyperMantis_GPTQ (en utilisant oobabooga/text-generation-webui) | 8,88 | 2023/06/03 | https://huggingface.co/digitous/13B-HyperMantis_GPTQ_4bit-128g/ | |
Stable-Platypus2-13B (en utilisant oobabooga/text-generation-webui) | 8.875 | 2023/08/15 | https://huggingface.co/TheBloke/Stable-Platypus2-13B-GGML | |
Airoboros-13B-GPTQ-4bit (utilisant oobabooga/text-generation-webui) | 8,84 | 2023/05/25 | https://huggingface.co/TheBloke/airoboros-13B-GPTQ | |
Kuchiki-1.1-L2-7B (utilisant oobabooga/text-generation-webui) | 8,84 | 2023/09/21 | https://huggingface.co/TheBloke/Kuchiki-1.1-L2-7B-GGUF | |
WizardLM-1.0-Uncensored-Llama2-13B (en utilisant oobabooga/text-generation-webui) | 8.80625 | 2023/08/09 | https://huggingface.co/TheBloke/WizardLM-1.0-Uncensored-Llama2-13B-GGML | |
Chronos-Beluga-v2-13B (utilisant oobabooga/text-generation-webui) | 8h75 | 2023/08/10 | https://huggingface.co/TheBloke/Chronos-Beluga-v2-13B-GGML | |
Vicuna-13B-CoT-GPTQ (utilisant oobabooga/text-generation-webui) | 8h75 | 2023/06/09 | https://huggingface.co/TheBloke/Vicuna-13B-CoT-GPTQ | |
WizardLM-7B.q4_2 (dans GPT4All) | 8h75 | Non | 2023/05/07 | https://gpt4all.io/models/ggml-wizardLM-7B.q4_2.bin |
OpenChat_v3.2 (en utilisant oobabooga/text-generation-webui) | 8.71875 | 2023/08/01 | https://huggingface.co/TheBloke/OpenChat_v3.2-GGML | |
Huginn-13B (en utilisant oobabooga/text-generation-webui) | 8.7125 | 2023/08/10 | https://huggingface.co/TheBloke/Huginn-13B-GGML | |
WizardLM-13B-V1.1 (utilisant oobabooga/text-generation-webui) | 8,66 | 2023/07/17 | https://huggingface.co/TheBloke/WizardLM-13B-V1.1-GGML | |
robin-13B-v2-GPTQ (en utilisant oobabooga/text-generation-webui) | 8,66 | 2023/06/19 | https://huggingface.co/TheBloke/robin-13B-v2-GPTQ | |
lama-2-13B-Guanaco-QLoRA (en utilisant oobabooga/text-generation-webui) | 8.625 | 2023/07/21 | https://huggingface.co/TheBloke/llama-2-13B-Guanaco-QLoRA-GGML | |
mpt-7b-chat (dans GPT4All) | 8.53 | Non | 2023/05/11 | https://gpt4all.io/models/ggml-mpt-7b-chat.bin |
chronos-hermes-13B-GPTQ (en utilisant oobabooga/text-generation-webui) | 8.48125 | 2023/06/16 | https://huggingface.co/TheBloke/chronos-hermes-13B-GPTQ | |
Luna-AI-Llama2-Uncensored (en utilisant oobabooga/text-generation-webui) | 8.46875 | 2023/07/20 | https://huggingface.co/TheBloke/Luna-AI-Llama2-Uncensored-GGML | |
stable-vicuna-13B-GPTQ-4bit-128g (en utilisant oobabooga/text-generation-webui) | 8h25 | 2023/05/12 | https://huggingface.co/TheBloke/stable-vicuna-13B-GPTQ | |
manticore_13b_chat_pyg_GPTQ (en utilisant oobabooga/text-generation-webui) | 8.21875 | 2023/05/24 | https://huggingface.co/TheBloke/manticore-13b-chat-pyg-GPTQ | |
CAMEL_13B_Combined_Data_GPTQ (en utilisant oobabooga/text-generation-webui) | 8.09375 | 2023/06/10 | https://huggingface.co/TheBloke/CAMEL-13B-Combined-Data-GPTQ | |
WizardLM-Uncensored-Falcon-7B-GPTQ (en utilisant oobabooga/text-generation-webui) | 8.09375 | 2023/06/02 | https://huggingface.co/TheBloke/WizardLM-Uncensored-Falcon-7B-GPTQ | |
lama-13b-supercot-GGML (en utilisant oobabooga/text-generation-webui) | 8.01 | 2023/07/05 | https://huggingface.co/TheBloke/llama-13b-supercot-GGML | |
Projet-Baize-v2-13B-GPTQ (utilisant oobabooga/text-generation-webui) | 7.96875 | 2023/05/24 | https://huggingface.co/TheBloke/Project-Baize-v2-13B-GPTQ | |
koala-13B-4bit-128g.GGML (en utilisant lama.cpp) | 7,9375 | Non | 2023/05/07 | https://huggingface.co/TheBloke/koala-13B-GPTQ-4bit-128g-GGML |
Wizard-lm-uncensored-13b-GPTQ-4bit-128g (en utilisant oobabooga/text-generation-webui) | 7.90625 | 2023/05/19 | https://huggingface.co/4bit/WizardLM-13B-Uncensored-4bit-128g | |
vicuna-7B-v1.3-GPTQ (en utilisant oobabooga/text-generation-webui) | 7.875 | 2023/06/29 | https://huggingface.co/TheBloke/vicuna-7B-v1.3-GPTQ | |
Manticore-13B-GPTQ (utilisant oobabooga/text-generation-webui) | 7.78125 | 2023/05/23 | https://huggingface.co/TheBloke/Manticore-13B-GPTQ | |
vigogne-13b-1.1-q4_2 (dans GPT4All) | 7.75 | Non | 2023/05/07 | https://gpt4all.io/models/ggml-vicuna-13b-1.1-q4_2.bin |
falcon-7b-instruct-GPTQ (en utilisant oobabooga/text-generation-webui) | 7.625 | 2023/06/02 | https://huggingface.co/TheBloke/falcon-7b-instruct-GPTQ | |
guanaco-13B-GPTQ (en utilisant oobabooga/text-generation-webui) | 7,5625 | 2023/05/26 | https://huggingface.co/TheBloke/guanaco-13B-GPTQ | |
Mythical-Destroyer-V2-L2-13B (utilisant oobabooga/text-generation-webui) | 7.31 | 2023/08/31 | https://huggingface.co/TheBloke/Mythical-Destroyer-V2-L2-13B-GGUF | |
Kimiko-v2-13B (utilisant oobabooga/text-generation-webui) | 7h25 | 2023/08/31 | https://huggingface.co/TheBloke/Kimiko-v2-13B-GGUF | |
orca-mini-13b.ggmlv3.q5_K_M (en utilisant oobabooga/text-generation-webui) | 7.0875 | 2023/06/28 | https://huggingface.co/TheBloke/orca_mini_13B-GGML | |
Platypus2-13B (en utilisant oobabooga/text-generation-webui) | 7.03125 | 2023/08/15 | https://huggingface.co/TheBloke/Platypus2-13B-GGML | |
Redmond-Puffin-13B (en utilisant oobabooga/text-generation-webui) | 7.03125 | 2023/07/20 | https://huggingface.co/TheBloke/Redmond-Puffin-13B-GGML | |
13B-BlueMethod (utilisant oobabooga/text-generation-webui) | 7.025 | 2023/07/24 | https://huggingface.co/TheBloke/13B-BlueMethod-GGML | |
mpt-7b-instruire | 6,6875 | Non | 2023/05/12 | https://huggingface.co/TheBloke/MPT-7B-Instruct-GGML |
Kimiko-13B (en utilisant oobabooga/text-generation-webui) | 6.46875 | 2023/08/01 | https://huggingface.co/TheBloke/Kimiko-13B-GGML | |
gpt4-x-alpaca-13b-ggml-q4_0 (en utilisant lama.cpp) | 6.0625 | Non | 2023/05/07 | https://huggingface.co/Bradarr/gpt4-x-alpaca-13b-native-ggml-model-q4_0 |
minotaure-15B-GPTQ (en utilisant oobabooga/text-generation-webui) | 5.9375 | 2023/06/26 | https://huggingface.co/TheBloke/minotaur-15B-GPTQ | |
baichuan-vicuna-7B-GGML (en utilisant oobabooga/text-generation-webui) | 5.90625 | 2023/07/05 | https://huggingface.co/TheBloke/baichuan-vicuna-7B-GGML | |
gpt4all-j-v1.3-groovy (dans GPT4All) | 5,6875 | Non | 2023/05/07 | https://gpt4all.io/models/ggml-gpt4all-j-v1.3-groovy.bin |
Un grand merci à :
❤️ GPT4ALl : https://github.com/nomic-ai/gpt4all-chat
❤️ lama.cpp : https://github.com/ggerganov/llama.cpp
❤️ webui de génération de texte oobabooga : https://github.com/oobabooga/text-Generation-webui
❤️ Webui Colab inspiré de Camenduru : https://github.com/camenduru/text-Generation-webui-colab/tree/main
❤️ The Bloke pour la quantification des modèles : https://huggingface.co/TheBloke
(Tous les scores proviennent de GPT-4-0613.)
Nom_modèle | Avg_Scores | Colab_Lien | Date_Ajouté | Lien |
---|---|---|---|---|
CodeLlama-13B-oasst-sft-v10 (en utilisant oobabooga/text-generation-webui) | 9.8 | 2023/08/28 | https://huggingface.co/TheBloke/CodeLlama-13B-oasst-sft-v10-GGUF | |
WizardCoder-Python-13B-V1.0 (utilisant oobabooga/text-generation-webui) | 9.5 | 2023/08/28 | https://huggingface.co/TheBloke/WizardCoder-Python-13B-V1.0-GGUF | |
Redmond-Hermes-Coder-GPTQ (en utilisant oobabooga/text-generation-webui) | 8.4 | 2023/07/03 | https://huggingface.co/TheBloke/Redmond-Hermes-Coder-GPTQ | |
CodeUp-Alpha-13B-HF (en utilisant oobabooga/text-generation-webui) | 7.9 | 2023/08/15 | https://huggingface.co/TheBloke/CodeUp-Alpha-13B-HF-GGML | |
starchat-beta-GPTQ (en utilisant oobabooga/text-generation-webui) | 7.6 | 2023/07/04 | https://huggingface.co/TheBloke/starchat-beta-GPTQ | |
Wizard-vicuna-13B-GPTQ (en utilisant oobabooga/text-Generation-webui) | 7.3 | 2023/07/03 | https://huggingface.co/TheBloke/wizard-vicuna-13B-GPTQ | |
WizardCoder-Guanaco-15B-V1.1 (utilisant oobabooga/text-generation-webui) | 7.1 | 2023/07/21 | https://huggingface.co/TheBloke/WizardCoder-Guanaco-15B-V1.1-GPTQ | |
CodeLlama-13B-Instruct (en utilisant oobabooga/text-generation-webui) | 7 | 2023/08/28 | https://huggingface.co/TheBloke/CodeLlama-13B-Instruct-GGUF | |
CodeUp-Llama-2-13B-Chat-HF (en utilisant oobabooga/text-generation-webui) | 6 | 2023/08/03 | https://huggingface.co/TheBloke/CodeUp-Llama-2-13B-Chat-HF-GGML | |
WizardCoder-15B-1.0-GPTQ (utilisant oobabooga/text-generation-webui) | 5.9 | 2023/07/03 | https://huggingface.co/TheBloke/WizardCoder-15B-1.0-GPTQ | |
WizardLM-13B-1.0-GPTQ (utilisant oobabooga/text-generation-webui) | 5.9 | 2023/05/29 | https://huggingface.co/TheBloke/wizardLM-13B-1.0-GPTQ |
Les réponses originales peuvent être trouvées à l'adresse : https://docs.google.com/spreadsheets/d/1ogDXUiaBx3t7EpMo44aaA6U6kLXX0x2tGRgLg8CISGs/edit?usp=sharing.
Domaine de tâches : Traduction
Bonne réponse attendue : "Le soleil se lève à l'est et se couche à l'ouest."
Explication : Cette tâche teste la capacité du modèle à comprendre et à traduire avec précision du texte entre les langues.
Domaine de tâches : résumé
Bonne réponse attendue: "Le cycle de l'eau est le mouvement continu de l'eau sur Terre, crucial pour maintenir l'équilibre hydrique et soutenir la vie."
Explication: Cette tâche évalue la capacité du modèle à extraire les principaux points d'un texte donné et à générer un résumé concis.
Domaine des tâches: conception d'applications
Explication: Cette tâche évalue la capacité du modèle à suivre de près les instructions de l'utilisateur pour une tâche complexe.
Domaine des tâches: réponse à la question abstractive
Bonne réponse attendue: crises financières, inégalités sociales et idées d'illumination.
Explication: Cette tâche teste la capacité du modèle à comprendre le contexte et à générer une réponse dans ses propres mots.