Vicuna-13B é um chatbot gratuito treinado em conversas compartilhadas por usuários do ShareGPT, aprimorado a partir do modelo LLaMA. Superou outros modelos como OpenAI ChatGPT, Google Bard, LLaMA e Stanford Alpaca em mais de 90% dos casos.
Nota: O script requer um mínimo de 6 GB de RAM (modelo lento/7b) e 32 GB+ (velocidades médias a rápidas/modelo 13b) é recomendado.
Windows
+ R
, digite powershell
e pressione Enter.Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
, pressione Y e pressione Enter.irm bit.ly/vicuna_ps1 | iex
e aperte enter. vicuna.ps1
para o seu computador.Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
para permitir scripts remotos..vicuna.ps1
. speed = 2 * log2(ram_gb / 10) + 1
| Speed
| Slow Medium Fast
-----------------------------
|
3 |
|
2 | *
| *
1 | *
|_____________________________
10GB 32GB+ RAM
Se você encontrar algum problema ao executar o script, verifique o seguinte:
Se continuar tendo problemas, entre em contato com o desenvolvedor para obter assistência.
Este é um esforço conjunto com colaboradores de diversas instituições, incluindo UC Berkeley, CMU, Stanford, UC San Diego e MBZUAI.
Alunos (ordem alfabética): Wei-Lin Chiang, Zhuohan Li, Zi Lin, Ying Sheng, Zhanghao Wu, Hao Zhang, Lianmin Zheng, Siyuan Zhuang, Yonghao Zhuang
Consultores (ordem alfabética): Joseph E. Gonzalez, Ion Stoica, Eric P. Xing LMSYS Agradecimentos especiais a eachadea (Chad Ea-Nasir II) por seu modelo quantizado de 4 bits e SpreadSheetWarrior por seu tutorial sobre como executar o VICUNA na CPU.
Gostaríamos de agradecer a Xinyang Geng, Hao Liu e Eric Wallace do BAIR; Xuecheng Li e Tianyi Zhang, da equipe Stanford Alpaca, por suas discussões e comentários esclarecedores. BAIR terá outra postagem no blog em breve para um esforço simultâneo em seu chatbot, Koala.