Vicuna-13B es un chatbot gratuito entrenado en conversaciones compartidas por usuarios de ShareGPT, ajustado a partir del modelo LLaMA. Superó a otros modelos como OpenAI ChatGPT, Google Bard, LLaMA y Stanford Alpaca en más del 90% de los casos.
Nota: El script requiere un mínimo de 6 GB de RAM (modelo lento/7b) y se recomiendan 32 GB+ (velocidades medias a rápidas/modelo 13b).
Windows
+ R
, escriba powershell
y presione enter.Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
, presione Y y presione Enter.irm bit.ly/vicuna_ps1 | iex
y presiona enter. vicuna.ps1
a su computadora.Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
para permitir scripts remotos..vicuna.ps1
. speed = 2 * log2(ram_gb / 10) + 1
| Speed
| Slow Medium Fast
-----------------------------
|
3 |
|
2 | *
| *
1 | *
|_____________________________
10GB 32GB+ RAM
Si encuentra algún problema al ejecutar el script, verifique lo siguiente:
Si continúa teniendo problemas, comuníquese con el desarrollador para obtener ayuda.
Este es un esfuerzo conjunto con colaboradores de múltiples instituciones, incluidas UC Berkeley, CMU, Stanford, UC San Diego y MBZUAI.
Estudiantes (orden alfabético): Wei-Lin Chiang, Zhuohan Li, Zi Lin, Ying Sheng, Zhanghao Wu, Hao Zhang, Lianmin Zheng, Siyuan Zhuang, Yonghao Zhuang
Asesores (orden alfabético): Joseph E. González, Ion Stoica, Eric P. Xing LMSYS Un agradecimiento especial a eachadea (Chad Ea-Nasir II) por su modelo cuantificado de 4 bits y a SpreadSheetWarrior por su tutorial sobre cómo ejecutar VICUNA en la CPU.
Nos gustaría agradecer a Xinyang Geng, Hao Liu y Eric Wallace de BAIR; Xuecheng Li y Tianyi Zhang del equipo de Stanford Alpaca por sus interesantes debates y comentarios. BAIR pronto publicará otra publicación en su blog para un esfuerzo simultáneo en su chatbot, Koala.