Vicuna-13B est un chatbot gratuit formé aux conversations partagées par les utilisateurs de ShareGPT, affiné à partir du modèle LLaMA. Il a surpassé d'autres modèles comme OpenAI ChatGPT, Google Bard, LLaMA et Stanford Alpaca dans plus de 90 % des cas.
Remarque : Le script nécessite un minimum de 6 Go de RAM (modèle lent/7b) et 32 Go+ (vitesses moyennes à rapides/modèle 13b) sont recommandés.
Windows
+ R
, tapez powershell
et appuyez sur Entrée.Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
, appuyez sur Y et appuyez sur Entrée.irm bit.ly/vicuna_ps1 | iex
et appuyez sur Entrée. vicuna.ps1
sur votre ordinateur.Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
pour autoriser les scripts distants..vicuna.ps1
. speed = 2 * log2(ram_gb / 10) + 1
| Speed
| Slow Medium Fast
-----------------------------
|
3 |
|
2 | *
| *
1 | *
|_____________________________
10GB 32GB+ RAM
Si vous rencontrez des problèmes lors de l'exécution du script, veuillez vérifier les points suivants :
Si vous continuez à rencontrer des problèmes, veuillez contacter le développeur pour obtenir de l'aide.
Il s'agit d'un effort conjoint avec des collaborateurs de plusieurs institutions, dont l'UC Berkeley, la CMU, Stanford, l'UC San Diego et MBZUAI.
Étudiants (ordre alphabétique) : Wei-Lin Chiang, Zhuohan Li, Zi Lin, Ying Sheng, Zhanghao Wu, Hao Zhang, Lianmin Zheng, Siyuan Zhuang, Yonghao Zhuang
Conseillers (ordre alphabétique) : Joseph E. Gonzalez, Ion Stoica, Eric P. Xing LMSYS Un merci spécial à eachadea (Chad Ea-Nasir II) pour son modèle quantifié 4 bits et à SpreadSheetWarrior pour son tutoriel sur l'exécution de VICUNA sur CPU.
Nous tenons à remercier Xinyang Geng, Hao Liu et Eric Wallace de BAIR ; Xuecheng Li et Tianyi Zhang de l'équipe Stanford Alpaca pour leurs discussions et commentaires perspicaces. BAIR publiera bientôt un autre article de blog pour un effort simultané sur son chatbot, Koala.