(2023년 11월 27일 업데이트) 저장소의 원래 목표는 소비자 하드웨어에서 실행할 수 있는 일부 소형 모델(7B 및 13B)을 비교하여 모든 모델이 GPT-4의 일련의 질문에 대한 점수를 갖는 것이었습니다. 하지만 능력 있는 모델이 많이 등장할수록 평가와 비교 과정이 충분하지 않을 수도 있다는 것을 깨달았습니다.
따라서 나는 최신 모델에 대한 Colab WebUI 링크만 넣을 것이며 몇 번의 클릭만으로 직접 시험해 볼 수 있습니다. 결국 언어 모델의 효율성은 특정 사용 사례에 대한 적합성에 크게 좌우됩니다. 모델을 직접 시험해 보면 성능을 평가하고 요구 사항에 가장 적합한 모델을 결정할 수 있습니다.
이러한 모델은 소비자 하드웨어에서 실행될 수 있으며 일반적으로 좋습니다(Reddit 제안 및 내 경험에 따르면). 직접 사용해 보세요('Colab에서 열기' 버튼을 탭하세요)!
모델 | 링크 | Colab 링크 | 추가된 날짜 | 메모 |
---|---|---|---|---|
제퍼-7B-베타-GGUF | https://huggingface.co/TheBloke/zephyr-7B-beta-GGUF | 2023/11/27 | 롤플레잉 괜찮음, 검열되지 않음 | |
OpenHermes-2.5-Mistral-7B-GGUF | https://huggingface.co/TheBloke/OpenHermes-2.5-Mistral-7B-GGUF | 2023/11/27 | 검열되지 않은 롤플레이가 좋음 | |
돌고래-2.2.1-mistral-7B-GGUF | https://huggingface.co/TheBloke/dolphin-2.2.1-mistral-7B-GGUF | 2023/11/27 | 롤플레잉 괜찮음, 검열되지 않음 | |
신경 채팅-7B-v3-1-GGUF | https://huggingface.co/TheBloke/neural-chat-7B-v3-1-GGUF | 2023/11/27 | 역할극은 괜찮습니다. 검열되지 않았습니다. 일부 논리 결함 | |
openchat_3.5-16k-GGUF | https://huggingface.co/TheBloke/openchat_3.5-16k-GGUF | 2023/11/27 | 검열됨 | |
Starling-LM-7B-알파-GGUF | https://huggingface.co/TheBloke/Starling-LM-7B-alpha-GGUF | 2023/11/29 | 검열됨; Reddit에서 높은 평가를 받은 | |
오르카-2-7B-GGUF | https://huggingface.co/TheBloke/Orca-2-7B-GGUF | 2023/11/29 | 검열됨 | |
오르카-2-13B-GGUF | https://huggingface.co/TheBloke/Orca-2-13B-GGUF | 2023/11/29 | 검열됨, 7B 버전보다 더 나쁜 이상한 논리 결함 | |
MythoMist-7B-GGUF | https://huggingface.co/TheBloke/MythoMist-7B-GGUF | 2023/11/29 | 역할극은 괜찮습니다. 검열되지 않았습니다. 일부 논리 결함 | |
신경헤르메스-2.5-미스트랄-7B-GGUF | https://huggingface.co/TheBloke/NeuralHermes-2.5-Mistral-7B-GGUF | 2023/12/05 | 검열되지 않은 롤플레이가 좋음 | |
stablelm-zephyr-3b-GGUF | https://huggingface.co/TheBloke/stablelm-zephyr-3b-GGUF | 2023/12/11 | 3B; 역할극 좋아요; 검열되지 않았습니다. 일부 논리 결함 | |
deepseek-llm-7B-채팅-GGUF | https://huggingface.co/TheBloke/deepseek-llm-7B-chat-GGUF | 2023/12/11 | 검열됨 | |
미스트랄-7B-Instruct-v0.2-GGUF | https://huggingface.co/TheBloke/Mistral-7B-Instruct-v0.2-GGUF | 2023/12/13 | 부분적으로 검열되었습니다. 역할극 좋아요; Reddit에서 높은 평가를 받은 | |
Mixtral-8x7B-Instruct-v0.1-GGUF | https://huggingface.co/TheBloke/Mixtral-8x7B-Instruct-v0.1-GGUF | 2023/12/13 | 환경부 모델; 부분적으로 검열됨; 역할극 괜찮아 | |
deepsex-34b-GGUF | https://huggingface.co/TheBloke/deepsex-34b-GGUF | 2023/12/14 | 34B; NSFW 모델 | |
파이-2 | https://huggingface.co/microsoft/phi-2 | 2023/12/15 | 2.7B; 기본 모델; | |
Xwin-MLewd-13B-v0.2-GGUF | https://huggingface.co/TheBloke/Xwin-MLewd-13B-v0.2-GGUF | 2023/12/15 | 13B; NSFW 모델 | |
MythoMax-L2-13B-GGUF | https://huggingface.co/TheBloke/MythoMax-L2-13B-GGUF | 2023/12/15 | 13B; 검열됨; 역할극 괜찮아 | |
LLaMA2-13B-결승전사-GGUF | https://huggingface.co/TheBloke/LLaMA2-13B-Tiefighter-GGUF | 2023/12/15 | 13B; 역할놀이 잘해 | |
LLaMA2-13B-Psyfighter2-GGUF | https://huggingface.co/TheBloke/LLaMA2-13B-Psyfighter2-GGUF | 2023/12/15 | 13B; 부분적으로 검열되었습니다. 역할극 좋아요; Reddit에서 추천함 | |
노로메이드-13B-v0.1.1-GGUF | https://huggingface.co/TheBloke/Noromaid-13B-v0.1.1-GGUF | 2023/12/15 | 13B; NSFW 모델; 역할극 좋다 | |
돌고래-2.5-mixtral-8x7b-GGUF | https://huggingface.co/TheBloke/dolphin-2.5-mixtral-8x7b-GGUF | 2023/12/20 | 환경부 모델; 검열되지 않았다고 주장하지만 일부 요청을 거부합니다. 역할극을 사용할 수 없음 | |
SOLAR-10.7B-Instruct-v1.0-GGUF | https://huggingface.co/TheBloke/SOLAR-10.7B-Instruct-v1.0-GGUF | 2023/12/21 | 10.7B; 검열됨; 역할극 괜찮아 | |
Nous-Hermes-2-SOLAR-10.7B-GGUF | https://huggingface.co/TheBloke/Nous-Hermes-2-SOLAR-10.7B-GGUF | 2024/01/08 | 10.7B; 부분적으로 검열됨; 역할놀이 잘해 | |
오픈채팅-3.5-0106-GGUF | https://huggingface.co/TheBloke/openchat-3.5-0106-GGUF | 2024/01/12 | 역할극과 창의적인 글쓰기가 좋습니다. 검열되지 않음 | |
미스트랄-7B-Instruct-v0.2-code-ft-GGUF | https://huggingface.co/TheBloke/Mistral-7B-Instruct-v0.2-code-ft-GGUF | 2024/01/12 | 코딩 모델 | |
팬더-7B-v0.1-GGUF | https://huggingface.co/TheBloke/Panda-7B-v0.1-GGUF | 2024/01/12 | 역할극은 괜찮습니다. 창의적인 글쓰기가 좋습니다. 부분적으로 검열됨 | |
LLaMA-Pro-8B-GGUF | https://huggingface.co/TheBloke/LLaMA-Pro-8B-GGUF | 2024/01/16 | 수학/코딩에 능숙하다고 주장합니다. 품질이 너무 좋다 | |
돌고래-2.6-미스트랄-7B-dpo-레이저-GGUF | https://huggingface.co/TheBloke/dolphin-2.6-mistral-7B-dpo-laser-GGUF | 2024/01/16 | 무수정; 양질; 역할놀이 잘해 | |
laserxtral-GGUF | https://huggingface.co/dagbs/laserxtral-GGUF | 2024/01/17 | 4x7B MOE 모델; Mixtral보다 메모리가 절반입니다. 검열되지 않았습니다. 역할놀이 잘해 | |
Mixtral_7Bx2_MoE-GGUF | https://huggingface.co/TheBloke/Mixtral_7Bx2_MoE-GGUF | 2024/01/23 | 2x7B MOE 모델; 무수정; 역할극 괜찮아 | |
카피바라Hermes-2.5-Mistral-7B-GGUF | https://huggingface.co/TheBloke/CapybaraHermes-2.5-Mistral-7B-GGUF | 2024/02/06 | 검열됨; | |
안정 코드-3b-GGUF | https://huggingface.co/TheBloke/stable-code-3b-GGUF/ | 2024/02/06 | 3B; 코딩 모델; 품질이 좀 너무 작은 것 같아요 | |
에스토피아Maid-13B-GGUF | https://huggingface.co/TheBloke/EstopianMaid-13B-GGUF | 2024/02/06 | 13B; 역할극 모델 | |
gemma-7b-it-GGUF | https://huggingface.co/mlabonne/gemma-7b-it-GGUF/ | 2024/02/28 | 7B; 검열됨 | |
StarCoder2-15B-GGUF | https://huggingface.co/second-state/StarCoder2-15B-GGUF | 2024/03/20 | 15B; 코딩 모델; r/LocalLLaMA에서 높은 투표를 받았습니다 | |
Qwen1.5-7B-Chat-GGUF | https://huggingface.co/Qwen/Qwen1.5-7B-Chat-GGUF | 2024/03/20 | 7B; 검열됨; r/LocalLLaMA에서 높은 투표를 받았습니다 | |
Qwen1.5-14B-Chat-GGUF | https://huggingface.co/Qwen/Qwen1.5-14B-Chat-GGUF | 2024/03/20 | 14B; 검열됨; r/LocalLLaMA에서 높은 투표를 받았습니다 | |
헤르메스-2-Pro-Mistral-7B-GGUF | https://huggingface.co/NousResearch/Hermes-2-Pro-Mistral-7B-GGUF | 2024/03/22 | 7B; 검열되지 않았습니다. 역할극 좋아요; Huggingface에서 높은 순위를 차지함 | |
Nous-Hermes-2-Mistral-7B-DPO-GGUF | https://huggingface.co/NousResearch/Nous-Hermes-2-Mistral-7B-DPO-GGUF | 2024/03/22 | 7B; 부분적으로 검열되었습니다. 역할극이 좋다; Huggingface에서 높은 순위를 차지함 | |
안정적인 코드 지시-3b-GGUF | https://huggingface.co/bartowski/stable-code-instruct-3b-GGUF | 2024/03/27 | 3B; 명령 조정 코드 생성 모델 | |
Qwen1.5-MoE-A2.7B-Chat-GPTQ-Int4 | https://huggingface.co/Qwen/Qwen1.5-MoE-A2.7B-Chat-GPTQ-Int4 | 2024/04/03 | 환경부; 작은 설치 공간; 일부 논리적 오류 | |
문어-v2 | https://huggingface.co/NexaAIDev/Octopus-v2/ | 2024/04/07 | 2B; 비양자화; 온디바이스 Android API에 최적화됨 | |
codegemma-7b-it-GGUF | https://huggingface.co/lmstudio-community/codegemma-7b-it-GGUF | 2024/04/18 | 7B; 코딩 모델 | |
CodeQwen1.5-7B-Chat-GGUF | https://huggingface.co/Qwen/CodeQwen1.5-7B-Chat-GGUF | 2024/04/18 | 7B; 코딩 모델 | |
마법사LM-2-7B-GGUF | https://huggingface.co/MaziyarPanahi/WizardLM-2-7B-GGUF | 2024/04/18 | 7B; 검열됨 | |
메타-라마-3-8B-Instruct-GGUF | https://huggingface.co/QuantFactory/Meta-Llama-3-8B-Instruct-GGUF | 2024/04/19 | 8B; 검열됨 | |
돌고래-2.9-llama3-8b-gguff | https://huggingface.co/cognitivecomputations/dolphin-2.9-llama3-8b-gguff | 2024/04/22 | 8B; 무수정; Llama-3-8B의 논리가 저하된 것 같습니다. | |
Lexi-Llama-3-8B-무수정-GGUF | https://huggingface.co/Orenguteng/Lexi-Llama-3-8B-Uncensored-GGUF | 2024/04/24 | 8B; 무수정 | |
Llama3-8B-중국어-채팅-GGUF | https://huggingface.co/QuantFactory/Llama3-8B-China-Chat-GGUF | 2024/04/24 | 8B; 중국인 | |
Phi-3-mini-4k-instruct-gguf | https://huggingface.co/microsoft/Phi-3-mini-4k-instruct-gguf | 2024/04/24 | 3.8B; 검열됨; 빠른 | |
라마-3-8B-Instruct-32k-v0.1-GGUF | https://huggingface.co/MaziyarPanahi/Llama-3-8B-Instruct-32k-v0.1-GGUF | 2024/04/25 | 8B; 32K 컨텍스트; 긴 글을 요약하는데 좋습니다 | |
starcoder2-15b-instruct-v0.1-GGUF | https://huggingface.co/bartowski/starcoder2-15b-instruct-v0.1-GGUF | 2024/05/06 | 15B; 코딩 모델 | |
헤르메스-2-Pro-Llama-3-8B-GGUF | https://huggingface.co/NousResearch/Hermes-2-Pro-Llama-3-8B-GGUF | 2024/05/06 | 8B; 부분적으로 검열되었습니다. JSON, 도구 사용 등 | |
라마-3-ChatQA-1.5-8B-GGUF | https://huggingface.co/bartowski/Llama-3-ChatQA-1.5-8B-GGUFF | 2024/05/15 | 8B; 무수정 | |
헤르메스-2-세타-라마-3-8B-GGUF | https://huggingface.co/NousResearch/Hermes-2-Theta-Llama-3-8B-GGUF | 2024/05/17 | 8B; 검열됨; JSON, 도구 사용 등 | |
꽃-v5.1-9b-GGUF | https://huggingface.co/bartowski/blossom-v5.1-9b-GGUF | 2024/05/17 | 9B; Wizard/Orca/Math/중국어/영어 혼합 데이터셋 | |
팔콘-11B-GGUF | https://huggingface.co/bartowski/falcon-11B-GGUF | 2024/05/17 | 11B; 기본 원시 사전 학습 모델 | |
라마-3-cat-8b-instruct-v1-GGUFF | https://huggingface.co/bartowski/llama-3-cat-8b-instruct-v1-GGUFF | 2024/05/20 | 8B; 부분적으로 검열됨; 시스템 명령 충실도; 역할극 | |
Yi-1.5-9B-Chat-GGUF | https://huggingface.co/bartowski/Yi-1.5-9B-Chat-GGUF | 2024/05/20 | 9B; 검열됨 | |
SFR-반복-DPO-LLaMA-3-8B-R-GGUF | https://huggingface.co/bartowski/SFR-Iterative-DPO-LLaMA-3-8B-R-GGUF | 2024/05/22 | 8B; 부분적으로 검열됨 | |
Llama-3-Lumimaid-8B-v0.1-OAS-GGUF-IQ-Imatrix | https://huggingface.co/Lewdiculous/Llama-3-Lumimaid-8B-v0.1-OAS-GGUF-IQ-Imatrix | 2024/05/22 | 8B; 역할극; 요청을 거절하지 않도록 훈련되었습니다. Quora 데이터에 대한 교육을 받은 것 같습니다. | |
미스트랄-7B-Instruct-v0.3-GGUF | https://huggingface.co/MaziyarPanahi/Mistral-7B-Instruct-v0.3-GGUF | 2024/05/23 | 7B; 검열됨 | |
L3-8B-Stheno-v3.1-GGUF-IQ-Imatrix | https://huggingface.co/Lewdiculous/L3-8B-Stheno-v3.1-GGUF-IQ-Imatrix | 2024/05/30 | 8B; 1:1 무수정 역할극을 위해 훈련됨 | |
아야-23-8B-GGUF | https://huggingface.co/bartowski/aya-23-8B-GGUF | 2024/05/30 | 8B; 검열됨 | |
LLaMA3-반복-DPO-최종-GGUF | https://huggingface.co/bartowski/LLaMA3-iterative-DPO-final-GGUF | 2024/05/30 | 8B; 검열됨 | |
오픈채팅-3.6-8b-20240522-GGUF | https://huggingface.co/bartowski/openchat-3.6-8b-20240522-GGUF | 2024/06/04 | 8B; 부분적으로 검열됨 | |
메타-라마-3-8B-지시-삭제-v3-GGUF | https://huggingface.co/failspy/Meta-Llama-3-8B-Instruct-abliterated-v3-GGUF | 2024/06/04 | 8B; 무수정; | |
NeuralDaredevil-8B-삭제-GGUF | https://huggingface.co/QuantFactory/NeuralDaredevil-8B-abliterated-GGUF | 2024/06/19 | 8B; 무수정; | |
Qwen2-7B-Instruct-GGUF | https://huggingface.co/Qwen/Qwen2-7B-Instruct-GGUF | 2024/06/24 | 7B; 검열됨 | |
DeepSeek-Coder-V2-Lite-Instruct-GGUF | https://huggingface.co/lmstudio-community/DeepSeek-Coder-V2-Lite-Instruct-GGUF | 2024/06/27 | 16B; 코딩 모델 지시 | |
internlm2_5-7b-chat-gguf | https://huggingface.co/internlm/internlm2_5-7b-chat-gguf | 2024/07/11 | 7B; 검열됨; 긴 컨텍스트; 추론 및 도구 사용; | |
gemma-2-9b-it-GGUF | https://huggingface.co/bartowski/gemma-2-9b-it-GGUF | 2024/07/11 | 9B; 검열됨 | |
Smegmma-Deluxe-9B-v1-GGUF | https://huggingface.co/bartowski/Smegmma-Deluxe-9B-v1-GGUF | 2024/07/22 | 9B; 덜 검열된 gemma(여전히 일부 요청을 거부함) 역할극 | |
h2o-danube3-4b-chat-GGUF | https://huggingface.co/h2oai/h2o-danube3-4b-chat-GGUF | 2024/07/17 | 4B; 부분적으로 검열됨 | |
Tiger-Gemma-9B-v1-GGUF | https://huggingface.co/bartowski/Tiger-Gemma-9B-v1-GGUF | 2024/07/17 | 9B; 무수정; 하지만 논리에 약간의 결함이 있는 것 같습니다. | |
젬마수트라-9B-v1-GGUF | https://huggingface.co/TheDrummer/Gemmasutra-9B-v1-GGUF | 2024/07/24 | 9B; 약간의 검열을 통한 역할극 | |
메타-라마-3.1-8B-Instruct-GGUF | https://huggingface.co/lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF | 2024/07/25 | 8B; 검열됨 | |
미스트랄-니모-Instruct-2407-GGUF | https://huggingface.co/second-state/Mistral-Nemo-Instruct-2407-GGUF | 2024/07/25 | 12.2B; 부분적으로 무수정; Reddit 사용자가 추천함 | |
Celeste-12B-V1.6_iMatrix_GGUF | https://huggingface.co/MarsupialAI/Celeste-12B-V1.6_iMatrix_GGUF | 2024/07/30 | 12B; 역할극 및 스토리 작성 모델, 무수정 | |
헤르메스-3-라마-3.1-8B-GGUF | https://huggingface.co/NousResearch/Hermes-3-Llama-3.1-8B-GGUF | 2024/08/19 | 8B; 무수정 | |
젬마-2-9B-It-SPPO-Iter3-GGUF | https://huggingface.co/bartowski/Gemma-2-9B-It-SPPO-Iter3-GGUF | 2024/08/19 | 9B; 요약을 위해 r/LocalLLaMA에서 권장됨 | |
라마-3.1-스톰-8B-GGUF | https://huggingface.co/bartowski/Llama-3.1-Storm-8B-GGUF | 2024/08/20 | 8B; 검열됨 | |
Phi-3.5-미니 지시-GGUF | https://huggingface.co/lmstudio-community/Phi-3.5-mini-instruct-GGUF | 2024/08/21 | 3.5B; 검열되고 작고 빠릅니다. | |
Phi-3.5-mini-instruct_Uncensored-GGUF | https://huggingface.co/bartowski/Phi-3.5-mini-instruct_Uncensored-GGUF | 2024/08/26 | 3.5B; 검열되지 않고 작고 빠르지만 논리적 결함이 있고 결과가 일관되지 않습니다. | |
NemoMix-Unleashed-12B-GGUF | https://huggingface.co/bartowski/NemoMix-Unleashed-12B-GGUF | 2024/08/26 | 12B; 부분적으로 검열됨, 롤플레잉 및 스토리텔링 | |
미스트랄-NeMo-Minitron-8B-Base-GGUF | https://huggingface.co/QuantFactory/Mistral-NeMo-Minitron-8B-Base-GGUF | 2024/08/26 | 8B; 기본 모델 | |
Yi-Coder-9B-Chat-GGUF | https://huggingface.co/bartowski/Yi-Coder-9B-Chat-GGUF | 2024/09/05 | 9B; 명령어 코딩 모델 | |
라마-3.2-3B-Instruct-Q8_0-GGUF | https://huggingface.co/hugging-Quants/Llama-3.2-3B-Instruct-Q8_0-GGUF | 2024/10/01 | 3B; 작은 검열된 모델 | |
Qwen2.5-7B-Instruct-GGUF | https://huggingface.co/bartowski/Qwen2.5-7B-Instruct-GGUF | 2024/10/01 | 7B; 검열되었으며 r/LocalLLaMA에서 권장됨 | |
Qwen2.5-Coder-7B-Instruct-GGUF | https://huggingface.co/bartowski/Qwen2.5-Coder-7B-Instruct-GGUF | 2024/10/01 | 7B; r/LocalLLaMA에서 권장되는 명령어 코딩 모델 | |
라마-3.1-8B-렉시-무수정-V2-GGUF | https://huggingface.co/Orenguteng/Llama-3.1-8B-Lexi-Uncensored-V2-GGUF | 2024/10/15 | 8B; 부분적으로 검열됨 | |
슈퍼노바-메디우스-GGUF | https://huggingface.co/arcee-ai/SuperNova-Medius-GGUF | 2024/10/15 | 14B; 검열되었으며 r/LocalLLaMA에서 권장됨 | |
라마-3.2-3B-지시-무수정-GGUF | https://huggingface.co/mradermacher/Llama-3.2-3B-Instruct-uncensored-GGUF | 2024/10/15 | 3B; 소규모, 무수정 | |
Ministral-8B-Instruct-2410-HF-GGUF-TEST | https://huggingface.co/bartowski/Ministral-8B-Instruct-2410-HF-GGUF-TEST | 2024/10/21 | 8B; 부분적으로 검열됨 | |
화강암-3.0-8b-지시-GGUF | https://huggingface.co/bartowski/granite-3.0-8b-instruct-GGUF | 2024/10/28 | 8B; 검열됨 | |
아야-창공-8b-GGUF | https://huggingface.co/bartowski/aya-expanse-8b-GGUF | 2024/10/28 | 8B; 검열됨 | |
Qwen2.5-Coder-14B-Instruct-GGUF | https://huggingface.co/Qwen/Qwen2.5-Coder-14B-Instruct-GGUF | 2024/11/12 | 14B; 코딩 모델, 크기가 적당함 |
이 모델은 내 하드웨어(i5-12490F, 32GB RAM, RTX 3060 Ti GDDR6X 8GB VRAM)에서 테스트한 모델 중에서 더 잘 작동합니다. (참고: llama.cpp가 이전 ggml 모델 지원에 몇 가지 획기적인 변경을 적용했기 때문입니다. 일부 이전 모델은 아래 나열된 ggml 버전은 현재 llama.cpp에서 제대로 작동하지 않을 수 있습니다. 그러나 해당 모델에는 GPTQ 버전이나 최신 ggml 버전이 있어야 합니다.
메모:
모델_이름 | 평균_점수 | Colab_링크 | 날짜_추가됨 | 링크 |
---|---|---|---|---|
Mistral-7B-OpenOrca(oobabooga/text- Generation-webui 사용) | 10.00 | 2023/10/08 | https://huggingface.co/TheBloke/Mistral-7B-OpenOrca-GGUF | |
Llama-2-13B-chat(oobabooga/text- Generation-webui 사용) | 9.65 | 2023/07/20 | https://huggingface.co/TheBloke/Llama-2-13B-chat-GGML | |
Wizard-vicuna-13B.ggml.q4_0 (llama.cpp 사용) | 9.63 | 2023/05/07 | https://huggingface.co/TheBloke/wizard-vicuna-13B-GGML | |
Nous-Capybara-7B(oobabooga/text- Generation-webui 사용) | 9.56 | 2023/10/08 | https://huggingface.co/TheBloke/Nous-Capybara-7B-GGUF | |
vicuna-13B-v1.5(oobabooga/text- Generation-webui 사용) | 9.53 | 2023/08/09 | https://huggingface.co/TheBloke/vicuna-13B-v1.5-GGML | |
WizardLM-13B-1.0-GPTQ(oobabooga/text- Generation-webui 사용) | 9.53 | 2023/05/29 | https://huggingface.co/TheBloke/wizardLM-13B-1.0-GPTQ | |
airoboros-13B-gpt4-1.4-GPTQ(oobabooga/text- Generation-webui 사용) | 9시 50분 | 2023/06/30 | https://huggingface.co/TheBloke/airoboros-13B-gpt4-1.4-GPTQ | |
Nous-Hermes-13B-GPTQ(oobabooga/text- Generation-webui 사용) | 9.44 | 2023/06/03 | https://huggingface.co/TheBloke/Nous-Hermes-13B-GPTQ/tree/main | |
Dolphin-Llama-13B(oobabooga/text- Generation-webui 사용) | 9.38 | 2023/07/24 | https://huggingface.co/TheBloke/Dolphin-Llama-13B-GGML | |
Mistral-7B-Instruct-v0.1(oobabooga/text- Generation-webui 사용) | 9.37 | 2023/10/08 | https://huggingface.co/TheBloke/Mistral-7B-Instruct-v0.1-GGUF | |
OpenOrca-Platypus2-13B(oobabooga/text- Generation-webui 사용) | 9.37 | 2023/08/15 | https://huggingface.co/TheBloke/OpenOrca-Platypus2-13B-GGML | |
airoboros-l2-13b-gpt4-2.0 (oobabooga/text- Generation-webui 사용) | 9.34 | 2023/08/01 | https://huggingface.co/TheBloke/airoboros-l2-13b-gpt4-2.0-GGML | |
Chronos-13B-v2(oobabooga/text- Generation-webui 사용) | 9.31 | 2023/08/09 | https://huggingface.co/TheBloke/Chronos-13B-v2-GGML | |
vicuna-13b-v1.3.0-GPTQ(oobabooga/text- Generation-webui 사용) | 9.31 | 2023/06/29 | https://huggingface.co/TheBloke/vicuna-13b-v1.3.0-GPTQ | |
MythoLogic-13B(oobabooga/text- Generation-webui 사용) | 9.31 | 2023/07/20 | https://huggingface.co/TheBloke/MythoLogic-13B-GGML | |
Selfee-13B-GPTQ(oobabooga/text- Generation-webui 사용) | 9.28 | 2023/06/07 | https://huggingface.co/TheBloke/Selfee-13B-GPTQ | |
WizardLM-13B-V1.2(oobabooga/text- Generation-webui 사용) | 9.28 | 2023/07/26 | https://huggingface.co/TheBloke/WizardLM-13B-V1.2-GGML | |
minotaur-13B-GPTQ(oobabooga/text- Generation-webui 사용) | 9.28 | 2023/06/09 | https://huggingface.co/TheBloke/minotaur-13B-GPTQ | |
Pygmalion-2-13B-SuperCOT2(oobabooga/text- Generation-webui 사용) | 9.20 | 2023/09/21 | https://huggingface.co/TheBloke/Pygmalion-2-13B-SuperCOT2-GGUF | |
Athena-v1(oobabooga/text- Generation-webui 사용) | 9.19 | 2023/08/31 | https://huggingface.co/TheBloke/Athena-v1-GGUF | |
PuddleJumper-13B(oobabooga/text- Generation-webui 사용) | 9.1875 | 2023/08/29 | https://huggingface.co/TheBloke/PuddleJumper-13B-GGUF | |
Nous-Hermes-Llama2(oobabooga/text- Generation-webui 사용) | 9.17 | 2023/07/24 | https://huggingface.co/TheBloke/Nous-Hermes-Llama2-GGML | |
Luban-13B(oobabooga/text- Generation-webui 사용) | 9.15 | 2023/08/31 | https://huggingface.co/TheBloke/Luban-13B-GGUF | |
MythoBoros-13B(oobabooga/text- Generation-webui 사용) | 9.15 | 2023/07/24 | https://huggingface.co/TheBloke/MythoBoros-13B-GGML | |
13B-Ouroboros(oobabooga/text- Generation-webui 사용) | 9.11 | 2023/07/27 | https://huggingface.co/TheBloke/13B-Ouroboros-GGML | |
tulu-13B-GPTQ(oobabooga/text- Generation-webui 사용) | 9.06 | 2023/06/13 | https://huggingface.co/TheBloke/tulu-13B-GPTQ | |
AlpacaCielo-13B(oobabooga/text- Generation-webui 사용) | 9.03125 | 2023/07/27 | https://huggingface.co/TheBloke/AlpacaCielo-13B-GGML | |
StableBeluga-13B(oobabooga/text- Generation-webui 사용) | 9 | 2023/08/01 | https://huggingface.co/TheBloke/StableBeluga-13B-GGML | |
Chronos-Hermes-13B-v2(oobabooga/text- Generation-webui 사용) | 8.97 | 2023/08/10 | https://huggingface.co/TheBloke/Chronos-Hermes-13B-v2-GGML | |
OpenBuddy-Llama2-13B-v11.1(oobabooga/text- Generation-webui 사용) | 8.97 | 2023/09/05 | https://huggingface.co/TheBloke/OpenBuddy-Llama2-13B-v11.1-GGUF | |
Camel-Platypus2-13B(oobabooga/text- Generation-webui 사용) | 8.94 | 2023/08/15 | https://huggingface.co/TheBloke/Camel-Platypus2-13B-GGML | |
airoboros-l2-13b-gpt4-m2.0(oobabooga/text- Generation-webui 사용) | 8.94 | 2023/09/21 | https://huggingface.co/TheBloke/airoboros-l2-13b-gpt4-m2.0-GGUF | |
UltraLM-13B-GPTQ(oobabooga/text- Generation-webui 사용) | 8.89 | 2023/06/30 | https://huggingface.co/TheBloke/UltraLM-13B-GPTQ | |
13B-HyperMantis_GPTQ(oobabooga/text- Generation-webui 사용) | 8.88 | 2023/06/03 | https://huggingface.co/digitous/13B-HyperMantis_GPTQ_4bit-128g/ | |
Stable-Platypus2-13B(oobabooga/text- Generation-webui 사용) | 8.875 | 2023/08/15 | https://huggingface.co/TheBloke/Stable-Platypus2-13B-GGML | |
Airoboros-13B-GPTQ-4bit(oobabooga/text- Generation-webui 사용) | 8.84 | 2023/05/25 | https://huggingface.co/TheBloke/airoboros-13B-GPTQ | |
Kuchiki-1.1-L2-7B(oobabooga/text- Generation-webui 사용) | 8.84 | 2023/09/21 | https://huggingface.co/TheBloke/Kuchiki-1.1-L2-7B-GGUF | |
WizardLM-1.0-Uncensored-Llama2-13B(oobabooga/text- Generation-webui 사용) | 8.80625 | 2023/08/09 | https://huggingface.co/TheBloke/WizardLM-1.0-Uncensored-Llama2-13B-GGML | |
Chronos-Beluga-v2-13B(oobabooga/text- Generation-webui 사용) | 8.75 | 2023/08/10 | https://huggingface.co/TheBloke/Chronos-Beluga-v2-13B-GGML | |
Vicuna-13B-CoT-GPTQ(oobabooga/text- Generation-webui 사용) | 8.75 | 2023/06/09 | https://huggingface.co/TheBloke/Vicuna-13B-CoT-GPTQ | |
WizardLM-7B.q4_2(GPT4All에서) | 8.75 | 아니요 | 2023/05/07 | https://gpt4all.io/models/ggml-wizardLM-7B.q4_2.bin |
OpenChat_v3.2(oobabooga/text- Generation-webui 사용) | 8.71875 | 2023/08/01 | https://huggingface.co/TheBloke/OpenChat_v3.2-GGML | |
Huginn-13B(oobabooga/text- Generation-webui 사용) | 8.7125 | 2023/08/10 | https://huggingface.co/TheBloke/Huginn-13B-GGML | |
WizardLM-13B-V1.1(oobabooga/text- Generation-webui 사용) | 8.66 | 2023/07/17 | https://huggingface.co/TheBloke/WizardLM-13B-V1.1-GGML | |
robin-13B-v2-GPTQ(oobabooga/text- Generation-webui 사용) | 8.66 | 2023/06/19 | https://huggingface.co/TheBloke/robin-13B-v2-GPTQ | |
llama-2-13B-Guanaco-QLoRA(oobabooga/text- Generation-webui 사용) | 8.625 | 2023/07/21 | https://huggingface.co/TheBloke/llama-2-13B-Guanaco-QLoRA-GGML | |
mpt-7b-chat(GPT4All에서) | 8.53 | 아니요 | 2023/05/11 | https://gpt4all.io/models/ggml-mpt-7b-chat.bin |
chronos-hermes-13B-GPTQ(oobabooga/text- Generation-webui 사용) | 8.48125 | 2023/06/16 | https://huggingface.co/TheBloke/chronos-hermes-13B-GPTQ | |
Luna-AI-Llama2-무수정(oobabooga/text- Generation-webui 사용) | 8.46875 | 2023/07/20 | https://huggingface.co/TheBloke/Luna-AI-Llama2-Uncensored-GGML | |
stable-vicuna-13B-GPTQ-4bit-128g(oobabooga/text- Generation-webui 사용) | 8.25 | 2023/05/12 | https://huggingface.co/TheBloke/stable-vicuna-13B-GPTQ | |
manticore_13b_chat_pyg_GPTQ(oobabooga/text- Generation-webui 사용) | 8.21875 | 2023/05/24 | https://huggingface.co/TheBloke/manticore-13b-chat-pyg-GPTQ | |
CAMEL_13B_Combined_Data_GPTQ(oobabooga/text- Generation-webui 사용) | 8.09375 | 2023/06/10 | https://huggingface.co/TheBloke/CAMEL-13B-Combined-Data-GPTQ | |
WizardLM-Uncensored-Falcon-7B-GPTQ(oobabooga/text- Generation-webui 사용) | 8.09375 | 2023/06/02 | https://huggingface.co/TheBloke/WizardLM-Uncensored-Falcon-7B-GPTQ | |
llama-13b-supercot-GGML(oobabooga/text- Generation-webui 사용) | 8.01 | 2023/07/05 | https://huggingface.co/TheBloke/llama-13b-supercot-GGML | |
Project-Baize-v2-13B-GPTQ(oobabooga/text- Generation-webui 사용) | 7.96875 | 2023/05/24 | https://huggingface.co/TheBloke/Project-Baize-v2-13B-GPTQ | |
koala-13B-4bit-128g.GGML(llama.cpp 사용) | 7.9375 | 아니요 | 2023/05/07 | https://huggingface.co/TheBloke/koala-13B-GPTQ-4bit-128g-GGML |
Wizard-lm-uncensored-13b-GPTQ-4bit-128g(oobabooga/text- Generation-webui 사용) | 7.90625 | 2023/05/19 | https://huggingface.co/4bit/WizardLM-13B-Uncensored-4bit-128g | |
vicuna-7B-v1.3-GPTQ(oobabooga/text- Generation-webui 사용) | 7.875 | 2023/06/29 | https://huggingface.co/TheBloke/vicuna-7B-v1.3-GPTQ | |
Manticore-13B-GPTQ(oobabooga/text- Generation-webui 사용) | 7.78125 | 2023/05/23 | https://huggingface.co/TheBloke/Manticore-13B-GPTQ | |
vicuna-13b-1.1-q4_2 (GPT4All에서) | 7.75 | 아니요 | 2023/05/07 | https://gpt4all.io/models/ggml-vicuna-13b-1.1-q4_2.bin |
falcon-7b-instruct-GPTQ(oobabooga/text- Generation-webui 사용) | 7,625 | 2023/06/02 | https://huggingface.co/TheBloke/falcon-7b-instruct-GPTQ | |
guanaco-13B-GPTQ(oobabooga/text- Generation-webui 사용) | 7.5625 | 2023/05/26 | https://huggingface.co/TheBloke/guanaco-13B-GPTQ | |
Mythical-Destroyer-V2-L2-13B(oobabooga/text- Generation-webui 사용) | 7.31 | 2023/08/31 | https://huggingface.co/TheBloke/Mythical-Destroyer-V2-L2-13B-GGUF | |
Kimiko-v2-13B(oobabooga/text- Generation-webui 사용) | 7.25 | 2023/08/31 | https://huggingface.co/TheBloke/Kimiko-v2-13B-GGUF | |
orca-mini-13b.ggmlv3.q5_K_M(oobabooga/text- Generation-webui 사용) | 7.0875 | 2023/06/28 | https://huggingface.co/TheBloke/orca_mini_13B-GGML | |
Platypus2-13B(oobabooga/text- Generation-webui 사용) | 7.03125 | 2023/08/15 | https://huggingface.co/TheBloke/Platypus2-13B-GGML | |
Redmond-Puffin-13B(oobabooga/text- Generation-webui 사용) | 7.03125 | 2023/07/20 | https://huggingface.co/TheBloke/Redmond-Puffin-13B-GGML | |
13B-BlueMethod(oobabooga/text- Generation-webui 사용) | 7.025 | 2023/07/24 | https://huggingface.co/TheBloke/13B-BlueMethod-GGML | |
mpt-7b-지시 | 6.6875 | 아니요 | 2023/05/12 | https://huggingface.co/TheBloke/MPT-7B-Instruct-GGML |
Kimiko-13B(oobabooga/text-generation-webui 사용) | 6.46875 | 2023/08/01 | https://huggingface.co/TheBloke/Kimiko-13B-GGML | |
gpt4-x-alpaca-13b-ggml-q4_0(llama.cpp 사용) | 6.0625 | 아니요 | 2023/05/07 | https://huggingface.co/Bradarr/gpt4-x-alpaca-13b-native-ggml-model-q4_0 |
minotaur-15B-GPTQ(oobabooga/text- Generation-webui 사용) | 5.9375 | 2023/06/26 | https://huggingface.co/TheBloke/minotaur-15B-GPTQ | |
baichuan-vicuna-7B-GGML(oobabooga/text- Generation-webui 사용) | 5.90625 | 2023/07/05 | https://huggingface.co/TheBloke/baichuan-vicuna-7B-GGML | |
gpt4all-j-v1.3-groovy(GPT4All에서) | 5.6875 | 아니요 | 2023/05/07 | https://gpt4all.io/models/ggml-gpt4all-j-v1.3-groovy.bin |
많은 감사를 드립니다:
❤️ GPT4ALL: https://github.com/nomic-ai/gpt4all-chat
❤️ llama.cpp: https://github.com/ggerganov/llama.cpp
❤️ oobabooga 텍스트 생성 webui: https://github.com/oobabooga/text- Generation-webui
❤️ camenduru에서 영감을 받은 Colab webui: https://github.com/camenduru/text- Generation-webui-colab/tree/main
❤️ 모델 양자화를 위한 The Bloke: https://huggingface.co/TheBloke
(모든 점수는 GPT-4-0613에서 따왔습니다.)
모델_이름 | Avg_Scores | Colab_링크 | 날짜_추가됨 | 링크 |
---|---|---|---|---|
CodeLlama-13B-oasst-sft-v10(oobabooga/text- Generation-webui 사용) | 9.8 | 2023/08/28 | https://huggingface.co/TheBloke/CodeLlama-13B-oasst-sft-v10-GGUF | |
WizardCoder-Python-13B-V1.0(oobabooga/text- Generation-webui 사용) | 9.5 | 2023/08/28 | https://huggingface.co/TheBloke/WizardCoder-Python-13B-V1.0-GGUF | |
Redmond-Hermes-Coder-GPTQ(oobabooga/text- Generation-webui 사용) | 8.4 | 2023/07/03 | https://huggingface.co/TheBloke/Redmond-Hermes-Coder-GPTQ | |
CodeUp-Alpha-13B-HF(oobabooga/text- Generation-webui 사용) | 7.9 | 2023/08/15 | https://huggingface.co/TheBloke/CodeUp-Alpha-13B-HF-GGML | |
starchat-beta-GPTQ(oobabooga/text- Generation-webui 사용) | 7.6 | 2023/07/04 | https://huggingface.co/TheBloke/starchat-beta-GPTQ | |
Wizard-vicuna-13B-GPTQ(oobabooga/text- Generation-webui 사용) | 7.3 | 2023/07/03 | https://huggingface.co/TheBloke/wizard-vicuna-13B-GPTQ | |
WizardCoder-Guanaco-15B-V1.1(oobabooga/text- Generation-webui 사용) | 7.1 | 2023/07/21 | https://huggingface.co/TheBloke/WizardCoder-Guanaco-15B-V1.1-GPTQ | |
CodeLlama-13B-Instruct(oobabooga/text- Generation-webui 사용) | 7 | 2023/08/28 | https://huggingface.co/TheBloke/CodeLlama-13B-Instruct-GGUF | |
CodeUp-Llama-2-13B-Chat-HF(oobabooga/text- Generation-webui 사용) | 6 | 2023/08/03 | https://huggingface.co/TheBloke/CodeUp-Llama-2-13B-Chat-HF-GGML | |
WizardCoder-15B-1.0-GPTQ(oobabooga/text- Generation-webui 사용) | 5.9 | 2023/07/03 | https://huggingface.co/TheBloke/WizardCoder-15B-1.0-GPTQ | |
WizardLM-13B-1.0-GPTQ(oobabooga/text- Generation-webui 사용) | 5.9 | 2023/05/29 | https://huggingface.co/TheBloke/wizardLM-13B-1.0-GPTQ |
원래 답변은 https://docs.google.com/spreadsheets/d/1ogDXUiaBx3t7EpMo44aaA6U6kLXX0x2tGRgLg8CISGs/edit?usp=sharing에서 확인할 수 있습니다.
작업 도메인: 번역
기대되는 좋은 반응: "Lesoleil se lève à l'est et se Couche à l'ouest."
설명: 이 작업은 언어 간 텍스트를 이해하고 정확하게 번역하는 모델의 능력을 테스트합니다.
작업 도메인: 요약
기대되는 좋은 반응: "물 순환은 지구상 물의 지속적인 움직임으로, 물 균형을 유지하고 생명을 유지하는 데 중요합니다."
설명: 이 작업은 주어진 텍스트에서 주요 요점을 추출하고 간결한 요약을 생성하는 모델의 능력을 평가합니다.
작업 도메인 : 앱 디자인
설명 :이 작업은 복잡한 작업에 대한 사용자의 지시를 면밀히 따르는 모델의 능력을 평가합니다.
작업 도메인 : 추상적 질문 답변
예상 좋은 반응 : 재정적 위기, 사회적 불평등 및 깨달음 아이디어.
설명 :이 작업은 상황을 이해하고 자체 단어로 답을 생성하는 모델의 능력을 테스트합니다.