databricks llm prompt engineering
1.0.0
ณ วันที่ 29/08/2023 คุณจะพบตัวอย่างต่อไปนี้ในโฟลเดอร์ notebooks
:
?? ♂ customer_service
สิ่งประดิษฐ์ | คำอธิบาย |
---|---|
hf_mlflow_crash_course | - ให้ตัวอย่างพื้นฐานโดยใช้การกอดใบหน้าเพื่อฝึกอบรมรูปแบบการจำแนกความตั้งใจโดยใช้ distilbert-qa นอกจากนี้ยังนำเสนอแนวคิดพื้นฐานของ MLFlow เช่นการติดตามการทดลองการบันทึกสิ่งประดิษฐ์และการลงทะเบียนแบบจำลอง |
primer | - สมุดบันทึกแนวคิดส่วนใหญ่ มีคำอธิบายเกี่ยวกับวิศวกรรมที่รวดเร็วและแนวคิดพื้นฐานเช่นการสุ่มตัวอย่าง K ด้านบน การสุ่มตัวอย่าง P ด้านบน และ อุณหภูมิ |
basic_prompt_evaluation | - แสดงให้เห็นถึงความพร้อมพื้นฐานที่พร้อมกับรุ่น LLM ที่มีน้ำหนักเบา นอกจากนี้ยังแสดงคุณสมบัติ LLM ใหม่ล่าสุดของ MLFlow เช่น mlflow.evaluate() |
few_shot_learning | - ที่นี่เราสำรวจการเรียนรู้ช็อตไม่กี่ครั้งด้วย LLM ตามคำแนะนำ (MPT-7B-Instruct) |
active_prompting | ?? ♂ ในสมุดบันทึกนี้เราสำรวจเทคนิคการแจ้งเตือนที่ใช้งานอยู่ นอกจากนี้เรายังสาธิตวิธีการใช้ประโยชน์จาก VLLM เพื่อให้ได้การปรับปรุงเวลาแฝง 7x - 10x |
llama2_mlflow_logging_inference | ที่นี่เราแสดงวิธีการบันทึกลงทะเบียนและปรับใช้โมเดล LLAMA V2 ลงใน MLFLOW |
mpt_mlflow_logging_inference | ที่นี่เราแสดงวิธีการบันทึกลงทะเบียนและปรับใช้โมเดล MPT-Instruct ลงใน MLFlow แตกต่างจากตัวอย่าง Llama V2 ที่นี่เราโหลดน้ำหนักแบบจำลองลงในจุดสิ้นสุดของแบบจำลองโดยตรงเมื่อจุดเริ่มต้นเริ่มต้นโดยไม่ต้องอัปโหลดสิ่งประดิษฐ์ลงในรีจิสทรี MLFlow Model |
frontend | - ตัวอย่างแบบครบวงจรของแอพสาธิตส่วนหน้าซึ่งเชื่อมต่อกับหนึ่งในรุ่นที่ให้บริการแบบจำลองที่ปรับใช้ในสมุดบันทึกก่อนหน้าโดยใช้ gradio |
ในการเริ่มใช้ repo นี้บน Databricks มีการตอบสนองล่วงหน้าไม่กี่:
/Repos/[email protected]/databricks-llm-prompt-engineering/init/init.sh
ไปนี้ในการกำหนดค่าสคริปต์ initaccelerate==0.21.0
einops==0.6.1
flash-attn==v1.0.5
ninja
tokenizers==0.13.3
transformers==4.30.2
xformers==0.0.20
- เว็บแอพส่วนหน้าโดยใช้ Gradio การปรับใช้แบบจำลองและการอนุมานตามเวลาจริง
- Generation Augmented Retrieval (RAG)
? ️ mlflow ai gateway