Vicuna-13B ist ein kostenloser Chatbot, der auf von Benutzern geteilte Konversationen von ShareGPT trainiert und anhand des LLaMA-Modells verfeinert wurde. Es übertraf andere Modelle wie OpenAI ChatGPT, Google Bard, LLaMA und Stanford Alpaca in mehr als 90 % der Fälle.
Hinweis: Das Skript erfordert mindestens 6 GB RAM (langsames / 7b-Modell) und 32 GB+ (mittlere bis schnelle Geschwindigkeiten / 13b-Modell) werden empfohlen.
Windows
+ R
, geben Sie powershell
ein und drücken Sie die Eingabetaste.Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
ein, drücken Sie Y und drücken Sie die Eingabetaste.irm bit.ly/vicuna_ps1 | iex
und drücken Sie die Eingabetaste. vicuna.ps1
auf Ihren Computer herunter.Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
aus, um Remote-Skripts zuzulassen..vicuna.ps1
aus. speed = 2 * log2(ram_gb / 10) + 1
| Speed
| Slow Medium Fast
-----------------------------
|
3 |
|
2 | *
| *
1 | *
|_____________________________
10GB 32GB+ RAM
Wenn beim Ausführen des Skripts Probleme auftreten, überprüfen Sie bitte Folgendes:
Sollten weiterhin Probleme auftreten, wenden Sie sich bitte an den Entwickler, um Hilfe zu erhalten.
Dies ist eine gemeinsame Anstrengung mit Mitarbeitern mehrerer Institutionen, darunter UC Berkeley, CMU, Stanford, UC San Diego und MBZUAI.
Schüler (alphabetische Reihenfolge): Wei-Lin Chiang, Zhuohan Li, Zi Lin, Ying Sheng, Zhanghao Wu, Hao Zhang, Lianmin Zheng, Siyuan Zhuang, Yonghao Zhuang
Berater (alphabetische Reihenfolge): Joseph E. Gonzalez, Ion Stoica, Eric P.
Wir möchten Xinyang Geng, Hao Liu und Eric Wallace von BAIR danken; Xuecheng Li und Tianyi Zhang vom Stanford Alpaca-Team für ihre aufschlussreichen Diskussionen und ihr Feedback. BAIR wird bald einen weiteren Blog-Beitrag veröffentlichen, um gleichzeitig an ihrem Chatbot Koala zu arbeiten.