【 2024.06.13 】สนับสนุน MiniCPM-Llama3-V-2_5
, ปรับเปลี่ยนตัวแปรสภาพแวดล้อม MODEL_NAME=minicpm-v
PROMPT_NAME=minicpm-v
DTYPE=bfloat16
[2024.06.12] รองรับโมเดล GLM-4V
, ปรับเปลี่ยนตัวแปรสภาพแวดล้อม MODEL_NAME=glm-4v
PROMPT_NAME=glm-4v
DTYPE=bfloat16
ดู glm4v สำหรับตัวอย่างการทดสอบ
【 2024.06.08 】โมเดล QWEN2
ได้รับการสนับสนุนแก้ไขตัวแปรสภาพแวดล้อม MODEL_NAME=qwen2
PROMPT_NAME=qwen2
【 2024.06.05 】รองรับรุ่น GLM4
และแก้ไขตัวแปรสภาพแวดล้อม MODEL_NAME=chatglm4
PROMPT_NAME=chatglm4
【 2024.04.18 】 Code Qwen
, SQL Q&A Demo
【 2024.04.16 】สนับสนุนรูปแบบการสั่งซื้อ Rerank
วิธีการใช้งาน
【 QWEN1.5
】ตัวแปรสภาพแวดล้อม MODEL_NAME=qwen2
PROMPT_NAME=qwen2
สำหรับข่าวและประวัติเพิ่มเติมโปรดไปที่นี่
เนื้อหาหลักของโครงการนี้
โครงการนี้ใช้อินเทอร์เฟซแบ็กเอนด์แบบครบวงจรสำหรับการใช้เหตุผลของโมเดลโอเพ่นซอร์สขนาดใหญ่ซึ่งสอดคล้องกับการตอบสนองของ OpenAI
และมีคุณสมบัติดังต่อไปนี้:
เรียกโมเดลโอเพนซอร์สต่างๆในรูปแบบของ OpenAI ChatGPT API
️รองรับการตอบสนองการสตรีมเพื่อให้ได้เอฟเฟกต์เครื่องพิมพ์
ใช้แบบจำลองการฝังข้อความเพื่อให้การสนับสนุนสำหรับเอกสารความรู้และคำตอบ
️สนับสนุนฟังก์ชั่นต่าง ๆ ของ langchain
เครื่องมือพัฒนาแบบจำลองภาษาขนาดใหญ่
chatgpt
รองรับการโหลดรุ่น lora
ที่ผ่านการฝึกอบรมด้วยตนเอง
⚡สนับสนุนการเร่งการอนุมาน VLLM และการประมวลผลคำขอพร้อมกัน
บท | อธิบาย |
---|---|
?? ♂ รุ่นโมเดล | โมเดลโอเพ่นซอร์สที่สนับสนุนโดยโครงการนี้และข้อมูลสั้น ๆ |
? วิธีเริ่มต้น | คำสั่งการกำหนดค่าสภาพแวดล้อมและคำสั่งเริ่มต้นสำหรับรุ่นเริ่มต้น |
⚡vllmวิธีการเริ่มต้น | คำสั่งการกำหนดค่าสภาพแวดล้อมและการเริ่มต้นสำหรับรุ่นเริ่มต้นโดยใช้ vLLM |
วิธีการโทร | วิธีการโทรหลังจากเริ่มต้นโมเดล |
❓faq | ตอบคำถามที่พบบ่อย |
รูปแบบภาษา
แบบอย่าง | ขนาดพารามิเตอร์รุ่น |
---|---|
ชาวไชน่า | 7b/13b |
chatglm | 6B |
ลึกล้ำ | 7b/16b/67b/236b |
ผู้ฝึกงาน | 7b/20b |
ลาม่า | 7b/13b/33b/65b |
Llama-2 | 7b/13b/70b |
Llama-3 | 8b/70b |
Qwen | 1.8b/7b/14b/72b |
Qwen1.5 | 0.5b/1.8b/4b/7b/14b/32b/72b/110b |
Qwen2 | 0.5B/1.5B/7B/57B/72B |
ยี่ (1/1.5) | 6b/9b/34b |
สำหรับรายละเอียดโปรดดูวิธีการเริ่มต้น VLLM และวิธีการเริ่มต้น Transformers
แบบจำลอง
แบบอย่าง | มิติ | ลิงค์น้ำหนัก |
---|---|---|
BGE-LARGE-ZH | 1024 | BGE-LARGE-ZH |
M3E ขนาดใหญ่ | 1024 | Moka-AI/M3E ขนาดใหญ่ |
Text2Vec-large-chinese | 1024 | Text2Vec-large-chinese |
BCE-embedding-base_v1 (แนะนำ) | 768 | BCE-embedding-base_v1 |
OPENAI_API_KEY
: เพียงเติมสตริงที่นี่
OPENAI_API_BASE
: ที่อยู่อินเตอร์เฟสของการเริ่มต้นแบ็กเอนด์เช่น: http: //192.168.0.xx: 80/v1
cd streamlit-demo
pip install -r requirements.txt
streamlit run streamlit_app.py
from openai import OpenAI
client = OpenAI (
api_key = "EMPTY" ,
base_url = "http://192.168.20.59:7891/v1/" ,
)
# Chat completion API
chat_completion = client . chat . completions . create (
messages = [
{
"role" : "user" ,
"content" : "你好" ,
}
],
model = "gpt-3.5-turbo" ,
)
print ( chat_completion )
# 你好!我是人工智能助手 ChatGLM3-6B,很高兴见到你,欢迎问我任何问题。
# stream = client.chat.completions.create(
# messages=[
# {
# "role": "user",
# "content": "感冒了怎么办",
# }
# ],
# model="gpt-3.5-turbo",
# stream=True,
# )
# for part in stream:
# print(part.choices[0].delta.content or "", end="", flush=True)
from openai import OpenAI
client = OpenAI (
api_key = "EMPTY" ,
base_url = "http://192.168.20.59:7891/v1/" ,
)
# Chat completion API
completion = client . completions . create (
model = "gpt-3.5-turbo" ,
prompt = "你好" ,
)
print ( completion )
# 你好!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。
from openai import OpenAI
client = OpenAI (
api_key = "EMPTY" ,
base_url = "http://192.168.20.59:7891/v1/" ,
)
# compute the embedding of the text
embedding = client . embeddings . create (
input = "你好" ,
model = "text-embedding-ada-002"
)
print ( embedding )
ด้วยการปรับเปลี่ยนตัวแปรสภาพแวดล้อม OPENAI_API_BASE
แอปพลิเคชัน chatgpt
ส่วนใหญ่และโครงการส่วนหน้าสามารถเชื่อมต่อได้อย่างราบรื่น!
docker run -d -p 3000:3000
-e OPENAI_API_KEY= " sk-xxxx "
-e BASE_URL= " http://192.168.0.xx:80 "
yidadaa/chatgpt-next-web
# 在docker-compose.yml中的api和worker服务中添加以下环境变量
OPENAI_API_BASE: http://192.168.0.xx:80/v1
DISABLE_PROVIDER_CONFIG_VALIDATION: ' true '
โครงการนี้ได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0
โปรดดูไฟล์ใบอนุญาตสำหรับข้อมูลเพิ่มเติม
chatglm: รูปแบบภาษาบทสนทนาแบบเปิดสองภาษา
Bloom: รูปแบบภาษาหลายภาษาแบบเปิดกว้าง 176b-parameter
LLAMA: แบบจำลองภาษาพื้นฐานที่เปิดกว้างและมีประสิทธิภาพ
การเข้ารหัสข้อความที่มีประสิทธิภาพและมีประสิทธิภาพสำหรับ Llama และ Alpaca จีน
ฟีนิกซ์: ประชาธิปไตย chatgpt ข้ามภาษา
มอส: โมเดลภาษาสนทนาแบบโอเพนซอร์ซ
FastChat: แพลตฟอร์มเปิดสำหรับการฝึกอบรมการให้บริการและการประเมิน chatbots แบบจำลองภาษาขนาดใหญ่
Langchain: การสร้างแอพพลิเคชั่นที่มี LLM ผ่านการรวมกัน
chuanhuchatgpt