Bootcamp แบบ End-to-End LLM (โมเดลภาษาขนาดใหญ่) ได้รับการออกแบบจากมุมมองในโลกแห่งความเป็นจริงที่เป็นไปตามกระบวนทัศน์ไปป์ไลน์การประมวลผลข้อมูล การพัฒนา และการปรับใช้ ผู้เข้าร่วมจะอธิบายขั้นตอนการทำงานของการประมวลผลชุดข้อมูล openassistant-guanaco ล่วงหน้าสำหรับงานการสร้างข้อความ และฝึกอบรมชุดข้อมูลโดยใช้ LLAMA 2 7Billion Model ซึ่งเป็น LLM ที่ได้รับการฝึกอบรมล่วงหน้าและปรับแต่งมาอย่างดี ผู้เข้าร่วมยังจะได้เรียนรู้การเพิ่มประสิทธิภาพ LLM โดยใช้ NVIDIA® TensorRT™ LLM ซึ่งเป็น SDK สำหรับการอนุมานโมเดลภาษาขนาดใหญ่ที่มีประสิทธิภาพสูง ทำความเข้าใจการแจ้งเตือนและการตอบสนองของ Guardrail และการตอบสนองจากโมเดล LLM โดยใช้ NVIDIA NeMo Guardrails และปรับใช้ไปป์ไลน์ AI โดยใช้แบ็กเอนด์ NVIDIA TensorRT LLM (ขับเคลื่อนโดย Triton™ Inference Server) ซึ่งเป็นซอฟต์แวร์โอเพ่นซอร์สที่สร้างมาตรฐานการใช้งานและการดำเนินการ LLM ในทุกปริมาณงาน
เนื้อหานี้ประกอบด้วยห้องทดลอง 3 ห้อง พร้อมด้วยสมุดบันทึกท้าทาย:
เครื่องมือและเฟรมเวิร์กที่ใช้ในวัสดุ Bootcamp มีดังนี้:
สื่อ Bootcamp ทั้งหมดจะใช้เวลาประมาณ 7 ชั่วโมง 30 นาที เราขอแนะนำให้แบ่งการสอนของสื่อการสอนออกเป็นสองวัน ครอบคลุม Lab 1-3 ในเซสชันเดียว และส่วนที่เหลือในเซสชันถัดไป
หากต้องการปรับใช้ Labs โปรดดูคู่มือการปรับใช้งานที่แสดงไว้ที่นี่
เนื้อหานี้มาจากที่เก็บ OpenHackathons Github ตรวจสอบวัสดุเพิ่มเติมได้ที่นี่
อย่าลืมตรวจสอบแหล่งข้อมูล Open Hackathons เพิ่มเติม และเข้าร่วม OpenACC และ Hackathons Slack Channel ของเราเพื่อแบ่งปันประสบการณ์ของคุณและรับความช่วยเหลือเพิ่มเติมจากชุมชน
ลิขสิทธิ์ © 2024 OpenACC-Standard.org เนื้อหานี้เผยแพร่โดย OpenACC-Standard.org โดยความร่วมมือกับ NVIDIA Corporation ภายใต้ Creative Commons Attribution 4.0 International (CC BY 4.0) เนื้อหาเหล่านี้อาจรวมถึงการอ้างอิงถึงฮาร์ดแวร์และซอฟต์แวร์ที่พัฒนาโดยหน่วยงานอื่น มีการใช้ใบอนุญาตและลิขสิทธิ์ที่เกี่ยวข้องทั้งหมด