yal discord bot
1.0.0
使用 Meta 的 LLaMA 模型的 Discord 聊天机器人,4 位量化。 130 亿个参数模型可容纳在不到 9 GiB VRAM 内。
在执行任何操作之前,您将需要一个机器人令牌。如果您没有机器人令牌,请按照本指南创建机器人,然后将机器人添加到您的服务器。
目前这仅适用于 Linux,但您也许可以使其与其他操作系统一起使用。
pip install virtualenv
) 和 CUDA。git clone https://github.com/AmericanPresidentJimmyCarter/yal-discord-bot/
cd yal-discord-bot
python3 -m virtualenv env
source env/bin/activate
pip install -r requirements.txt
git clone https://github.com/huggingface/transformers/
cd transformers
git checkout 20e54e49fa11172a893d046f6e7364a434cbc04f
pip install -e .
cd ..
cd bot/llama_model
python setup_cuda.py install
cd ../..
wget https://huggingface.co/Neko-Institute-of-Science/LLaMA-13B-4bit-128g/resolve/main/llama-13b-4bit-128g.safetensors
cd bot
python -m bot $YOUR_BOT_TOKEN --allow-queue -g $YOUR_GUILD --llama-model= " Neko-Institute-of-Science/LLaMA-13B-4bit-128g " --groupsize=128 --load-checkpoint= " path/to/llama/weights/llama-13b-4bit-128g.safetensors "
确保$YOUR_BOT_TOKEN
和$YOUR_GUILD
设置为应有的值, --load-checkpoint=..."
指向权重的正确位置, --llama-model=...
指向正确的权重位置Huggingface 中的位置以查找权重的配置。
您可以通过设置--alpaca
标志来使用任何 ALPACA 模型,这将允许您添加输入字符串并自动将提示格式设置为 ALPACA 所需的形式。
推荐的 4 位 ALPAC 权重如下:
或者 GPT4 微调(更好的编码响应,更多的内容限制):
cd bot
python -m bot $YOUR_BOT_TOKEN --allow-queue -g $YOUR_GUILD --alpaca --groupsize=128 --llama-model= " elinas/alpaca-30b-lora-int4 " --load-checkpoint= " path/to/alpaca/weights/alpaca-30b-4bit-128g.safetensors "
(c) 2023 年美国总统吉米·卡特