การปรับแต่ง LLM ที่ยอดเยี่ยม
ยินดีต้อนรับสู่คอลเลกชันทรัพยากรที่คัดสรรมาอย่างดีสำหรับการปรับแต่งโมเดลภาษาขนาดใหญ่ (LLM) เช่น GPT, BERT, RoBERTa และรูปแบบต่างๆ มากมาย! ในยุคแห่งปัญญาประดิษฐ์นี้ ความสามารถในการปรับโมเดลที่ได้รับการฝึกอบรมล่วงหน้าให้เข้ากับงานและขอบเขตเฉพาะกลายเป็นทักษะที่ขาดไม่ได้สำหรับนักวิจัย นักวิทยาศาสตร์ข้อมูล และผู้ปฏิบัติงานด้านการเรียนรู้ของเครื่อง
โมเดลภาษาขนาดใหญ่ที่ได้รับการฝึกอบรมบนชุดข้อมูลขนาดใหญ่ รวบรวมความรู้ที่หลากหลายและความแตกต่างทางภาษา อย่างไรก็ตาม เพื่อปลดปล่อยศักยภาพสูงสุดในแอปพลิเคชันเฉพาะ การปรับแต่งชุดข้อมูลเป้าหมายเป็นสิ่งสำคัญยิ่ง กระบวนการนี้ไม่เพียงแต่ปรับปรุงประสิทธิภาพของแบบจำลองเท่านั้น แต่ยังช่วยให้มั่นใจว่าแบบจำลองนั้นสอดคล้องกับบริบท คำศัพท์เฉพาะ และข้อกำหนดเฉพาะของงานที่มีอยู่
ในรายการที่ยอดเยี่ยมนี้ เราได้รวบรวมแหล่งข้อมูลต่างๆ อย่างพิถีพิถัน รวมถึงบทช่วยสอน เอกสาร เครื่องมือ เฟรมเวิร์ก และแนวทางปฏิบัติที่ดีที่สุด เพื่อช่วยคุณในการปรับแต่งเส้นทางของคุณ ไม่ว่าคุณจะเป็นผู้ประกอบวิชาชีพที่ช่ำชองที่ต้องการขยายความเชี่ยวชาญของคุณหรือเป็นมือใหม่ที่กระตือรือร้นที่จะก้าวเข้าสู่โลกของ LLM พื้นที่เก็บข้อมูลนี้ได้รับการออกแบบมาเพื่อให้ข้อมูลเชิงลึกอันมีค่าและแนวทางในการปรับปรุงความพยายามของคุณ
สารบัญ
- โครงการ GitHub
- บทความและบล็อก
- หลักสูตรออนไลน์
- หนังสือ
- เอกสารวิจัย
- วิดีโอ
- เครื่องมือและซอฟต์แวร์
- การประชุมและกิจกรรม
- สไลด์และการนำเสนอ
- พอดแคสต์
โครงการ GitHub
- LlamaIndex ?: กรอบงานข้อมูลสำหรับแอปพลิเคชัน LLM ของคุณ (23010 ดาว)
- กลีบดอกไม้ ?: เรียกใช้ LLM ที่บ้าน สไตล์ BitTorrent การปรับแต่งและการอนุมานได้เร็วกว่าการถ่ายโอนข้อมูลถึง 10 เท่า (7768 ดาว)
- LLaMA-Factory: เฟรมเวิร์กการปรับแต่ง LLM ที่ใช้งานง่าย (LLaMA-2, BLOOM, Falcon, Baichuan, Qwen, ChatGLM3) (5532ดาว)
- lit-gpt: การใช้งาน LLM โอเพ่นซอร์สที่ล้ำสมัยที่สามารถแฮ็กได้บนพื้นฐานของ nanoGPT รองรับ Flash Attention, การหาปริมาณ 4 บิตและ 8 บิต, การปรับแต่ง LoRA และ LLaMA-Adapter อย่างละเอียด, การฝึกอบรมล่วงหน้า Apache 2.0 ได้รับใบอนุญาต (3469 ดาว)
- H2O LLM Studio: เฟรมเวิร์กและ GUI ที่ไม่มีโค้ดสำหรับการปรับแต่ง LLM อย่างละเอียด เอกสารประกอบ: https://h2oai.github.io/h2o-llmstudio/ (2880 ดาว)
- Phoenix: การสังเกตและการประเมินผลของ AI - ประเมิน แก้ไขปัญหา และปรับแต่งโมเดล LLM, CV และ NLP ของคุณในโน้ตบุ๊ก (1,596 ดาว)
- LLM-Adapters: รหัสสำหรับเอกสาร EMNLP 2023: "LLM-Adapters: ตระกูลอะแดปเตอร์สำหรับการปรับแต่งพารามิเตอร์อย่างละเอียดอย่างมีประสิทธิภาพของโมเดลภาษาขนาดใหญ่" (769 ดาว)
- Platypus: รหัสสำหรับการปรับแต่ง Platypus fam LLM โดยใช้ LoRA (589 ดาว)
- xtuner: ชุดเครื่องมือสำหรับการปรับแต่ง LLM อย่างละเอียดอย่างมีประสิทธิภาพ (InternLM, Llama, Baichuan, QWen, ChatGLM2) (540 ดาว)
- DB-GPT-Hub: พื้นที่เก็บข้อมูลที่มีโมเดล ชุดข้อมูล และเทคนิคการปรับแต่งอย่างละเอียดสำหรับ DB-GPT โดยมีวัตถุประสงค์เพื่อเพิ่มประสิทธิภาพการทำงานของโมเดล โดยเฉพาะใน Text-to-SQL และได้รับ exec acc ที่สูงกว่า GPT-4 ใน สไปเดอร์ประเมินด้วย 13B LLM ใช้โปรเจ็กต์นี้ (422 ดาว)
- LLM-Finetuning-Hub : พื้นที่เก็บข้อมูลที่มีสคริปต์การปรับแต่ง LLM และการปรับใช้พร้อมกับผลการวิจัยของเรา 416
- Finetune_LLMs : Repo สำหรับการปรับแต่ง Casual LLMs 391
- MFTCoder : กรอบงานการปรับแต่งแบบหลายงานที่มีความแม่นยำสูงและประสิทธิภาพสูงสำหรับ Code LLM 业内首个高精度、高效率、多任务、多模型支持、多训练算法,大模型代码能力微调框架. 337
- llmware : มอบเฟรมเวิร์กการพัฒนาบน LLM ระดับองค์กร เครื่องมือ และโมเดลที่ได้รับการปรับแต่งอย่างละเอียด 289
- LLM-Kit : แพลตฟอร์มรวม WebUI สำหรับ LLM ล่าสุด | 各大语言模型的全流程工具 WebUI整合包。支持主流大模型API接口和เปิด源模型。支持知识库,数据库,角色扮演, mj 文生上,LoRA和全参数微调,数据集制作,live2d等全流程应用工具. 232
- h2o-wizardlm : การใช้งานโอเพ่นซอร์สของ WizardLM เพื่อเปลี่ยนเอกสารเป็นคู่ Q:A สำหรับการปรับแต่ง LLM อย่างละเอียด 228
- hcgf : Humanable Chat Generative-model การปรับแต่งอย่างละเอียด | LLM 微调. 196
- llm_qlora : การปรับแต่ง LLM อย่างละเอียดโดยใช้ QLoRA 136
- Awesome-llm-human-preference-datasets : รายการชุดข้อมูล Human Preference ที่คัดสรรแล้วสำหรับการปรับแต่ง LLM แบบละเอียด, RLHF และ eval 124
- llm_finetuning : wrapper ที่สะดวกสบายสำหรับการปรับแต่งและการอนุมานของ Large Language Models (LLM) ด้วยเทคนิคการหาปริมาณหลายอย่าง (GTPQ, bitsandbytes) 114
บทความและบล็อก
- ปรับแต่ง LLM ในปี 2024 ด้วย Hugging Face: TRL และ Flash Attention ?: โพสต์ในบล็อกนี้ให้คำแนะนำที่ครอบคลุมในการปรับแต่ง LLM อย่างละเอียด (เช่น Llama 2) โดยใช้ trl ใบหน้ากอดและเน้นแฟลชบน GPU ขนาดผู้บริโภค (24GB)
- คู่มือฉบับสมบูรณ์สำหรับการปรับแต่ง LLM แบบละเอียดสำหรับผู้เริ่มต้น : คู่มือฉบับสมบูรณ์ที่อธิบายกระบวนการปรับแต่งแบบจำลองที่ได้รับการฝึกอบรมล่วงหน้าสำหรับงานใหม่ โดยครอบคลุมแนวคิดหลักและให้ตัวอย่างที่เป็นรูปธรรม
- การปรับแต่งโมเดลภาษาขนาดใหญ่ (LLM) : โพสต์ในบล็อกนี้นำเสนอภาพรวมของ LLM ที่ได้รับการฝึกอบรมล่วงหน้าอย่างละเอียด อภิปรายแนวคิดที่สำคัญ และให้ตัวอย่างเชิงปฏิบัติด้วยโค้ด Python
- การสร้างผู้เชี่ยวชาญด้านโดเมน LLM: คำแนะนำในการปรับแต่งอย่างละเอียด : บทความที่เจาะลึกแนวคิดของการปรับแต่งอย่างละเอียดโดยใช้ API ของ OpenAI ซึ่งจัดแสดงตัวอย่างของการปรับแต่งแบบจำลองภาษาขนาดใหญ่อย่างละเอียดเพื่อทำความเข้าใจโครงเรื่องของโอเปร่าฮันเดล
- คู่มือสำหรับผู้เริ่มต้นสู่การปรับแต่ง LLM อย่างละเอียด ?: คู่มือที่ครอบคลุมกระบวนการปรับแต่ง LLM อย่างละเอียด รวมถึงการใช้เครื่องมือ เช่น QLoRA สำหรับการกำหนดค่าและการปรับแต่งโมเดลอย่างละเอียด
- กราฟความรู้และ LLM: การปรับแต่งแบบละเอียดเทียบกับ การดึงข้อมูล-Augmented Generation : โพสต์ในบล็อกนี้สำรวจข้อจำกัดของ LLM และให้ข้อมูลเชิงลึกในการปรับแต่งอย่างละเอียดร่วมกับกราฟความรู้
- ปรับแต่ง LLM กับข้อมูลส่วนบุคคลของคุณ: สร้างนักเล่าเรื่อง "เดอะลอร์ดออฟเดอะริงส์" ✏️: บทความที่สาธิตวิธีฝึกอบรม LLM ของคุณเองเกี่ยวกับข้อมูลส่วนบุคคล โดยเสนอการควบคุมข้อมูลส่วนบุคคลโดยไม่ต้องอาศัย GPT-4 ของ OpenAI
- การปรับแต่งโมเดล LLM อย่างละเอียดด้วย H2O LLM Studio เพื่อสร้างคำสั่ง Cypher ?: โพสต์ในบล็อกนี้ให้ตัวอย่างการปรับแต่งโมเดล LLM อย่างละเอียดโดยใช้ H2O LLM Studio สำหรับการสร้างคำสั่ง Cypher ซึ่งเปิดใช้งานแอปพลิเคชันแชทบอทด้วยกราฟความรู้
- ปรับแต่งโมเดล Llama 2 ของคุณเองอย่างละเอียดในสมุดบันทึก Colab : คำแนะนำเชิงปฏิบัติเกี่ยวกับการปรับแต่ง Llama 2 อย่างละเอียด ซึ่งสาธิตวิธีการนำไปใช้ในสมุดบันทึก Google Colab เพื่อสร้างโมเดล Llama 2 ของคุณเอง
- กำลังคิดที่จะปรับแต่ง LLM อยู่ใช่ไหม? ข้อควรพิจารณา 3 ข้อก่อนที่คุณจะเริ่มต้น: บทความนี้กล่าวถึงแนวคิด 3 ข้อที่ต้องพิจารณาเมื่อปรับแต่ง LLM อย่างละเอียด รวมถึงวิธีปรับปรุง GPT นอกเหนือจาก PEFT และ LoRA และความสำคัญของการลงทุนทรัพยากรอย่างชาญฉลาด
- ความรู้เบื้องต้นเกี่ยวกับ LLM และ generative AI : ส่วนที่ 3—การปรับแต่ง LLM แบบละเอียดพร้อมคำแนะนำ : บทความนี้สำรวจบทบาทของ LLM ในแอปพลิเคชันปัญญาประดิษฐ์ และให้ภาพรวมของการปรับแต่งอย่างละเอียด
- RAG กับ Finetuning — เครื่องมือใดที่ดีที่สุดในการเพิ่มประสิทธิภาพแอปพลิเคชัน LLM ของคุณ - โพสต์ในบล็อกที่พูดคุยถึงแง่มุมต่างๆ ที่ต้องพิจารณาเมื่อสร้างแอปพลิเคชัน LLM และเลือกวิธีการที่เหมาะสมสำหรับกรณีการใช้งานของคุณ ?
- การปรับแต่ง LLM: RLHF และทางเลือกอื่น (ตอนที่ 1) - บทความที่นำเสนอวิธีการทางเลือกสำหรับ RLHF โดยเฉพาะ Direct Preference Optimization (DPO)
- เมื่อใดที่คุณควรปรับแต่ง LLM - สำรวจการเปรียบเทียบระหว่าง LLM แบบโอเพ่นซอร์สแบบละเอียดกับการใช้ API แบบปิดสำหรับการสืบค้น LLM ตามขนาด -
- การปรับแต่งโมเดลภาษาขนาดใหญ่อย่างละเอียด - พิจารณาการปรับแต่งโมเดลภาษาขนาดใหญ่อย่างละเอียด และเปรียบเทียบกับแนวทางแบบ Zero และไม่กี่ช็อต
- GPT ส่วนตัว: ปรับแต่ง LLM บนข้อมูลองค์กร - สำรวจเทคนิคการฝึกอบรมที่ช่วยให้ปรับแต่ง LLM บน GPU ขนาดเล็กได้
- ปรับแต่ง Google PaLM 2 ด้วย Scikit-LLM - สาธิตวิธีปรับแต่ง Google PaLM 2 ซึ่งเป็น LLM ที่ทันสมัยที่สุดจาก Google โดยใช้ Scikit-LLM -
- เจาะลึกการปรับแต่งโมเดลภาษาขนาดใหญ่อย่างละเอียด - บล็อกที่ครอบคลุมเกี่ยวกับการปรับแต่ง LLM อย่างละเอียด เช่น GPT-4 และ BERT ที่ให้ข้อมูลเชิงลึก แนวโน้ม และคุณประโยชน์
- การฝึกอบรมล่วงหน้า การปรับแต่งอย่างละเอียด และการเรียนรู้ในบริบทในโมเดลภาษาขนาดใหญ่ - อภิปรายแนวคิดของการฝึกอบรมล่วงหน้า การปรับแต่งอย่างละเอียด และการเรียนรู้ในบริบทใน LLM
- รายชื่อโมเดลภาษาขนาดใหญ่ที่ปรับแต่งแบบละเอียดแบบโอเพ่นซอร์ส - รายการที่รวบรวมไว้ของ LLM ที่ปรับแต่งแบบละเอียดแบบโอเพ่นซอร์ส ซึ่งสามารถเรียกใช้ในเครื่องคอมพิวเตอร์ของคุณได้ -
- คู่มือผู้ปฏิบัติงานในการปรับแต่ง LLM อย่างละเอียดสำหรับกรณีการใช้งานเฉพาะโดเมน - คู่มือที่ครอบคลุมการเรียนรู้ที่สำคัญและข้อสรุปเกี่ยวกับการปรับแต่ง LLM อย่างละเอียดสำหรับกรณีการใช้งานเฉพาะโดเมน
- Finetune Llama 3.1 พร้อมสแต็กการผลิตบน AWS, GCP หรือ Azure - คำแนะนำและบทช่วยสอนเกี่ยวกับการปรับแต่ง Llama 3.1 (หรือ Phi 3.5) ในการตั้งค่าการผลิตที่ออกแบบมาสำหรับแนวทางปฏิบัติที่ดีที่สุดของ MLOps -
หลักสูตรออนไลน์
- พื้นฐานการปรับแต่งแบบละเอียด: การปลดล็อกศักยภาพของ LLM | Udemy: หลักสูตรเชิงปฏิบัติสำหรับผู้เริ่มต้นในการสร้างโมเดล ChatGPT และปรับใช้ตามกรณีการใช้งานเฉพาะ
- AI เจนเนอเรชั่นพร้อมโมเดลภาษาขนาดใหญ่ | Coursera: เรียนรู้พื้นฐานของ generative AI ด้วย LLM และวิธีการปรับใช้ในแอปพลิเคชันที่ใช้งานได้จริง ลงทะเบียนฟรี
- โมเดลภาษาขนาดใหญ่: การประยุกต์ใช้ผ่านการผลิต | edX: หลักสูตรขั้นสูงสำหรับนักพัฒนา นักวิทยาศาสตร์ข้อมูล และวิศวกรเพื่อสร้างแอปพลิเคชันที่เน้น LLM โดยใช้เฟรมเวิร์กยอดนิยมและบรรลุความพร้อมในการผลิตแบบครบวงจร
- การปรับแต่งโมเดลภาษาขนาดใหญ่อย่างละเอียด | Coursera Guided Project: โปรเจ็กต์แนะนำสั้นๆ ที่ครอบคลุมแนวคิดการปรับแต่งที่จำเป็นและการฝึกอบรมโมเดลภาษาขนาดใหญ่
- OpenAI & ChatGPT API's: การปรับแต่งโดยผู้เชี่ยวชาญสำหรับนักพัฒนา | Udemy: ค้นพบพลังของ GPT-3 ในการสร้างโซลูชัน AI แบบสนทนา รวมถึงหัวข้อต่างๆ เช่น วิศวกรรมที่รวดเร็ว การปรับแต่งอย่างละเอียด การบูรณาการ และการปรับใช้โมเดล ChatGPT
- ใบรับรองวิชาชีพโมเดลภาษาขนาดใหญ่ | edX: เรียนรู้วิธีสร้างและผลิตแอปพลิเคชันที่ใช้โมเดลภาษาขนาดใหญ่ (LLM) โดยใช้เฟรมเวิร์ก เทคนิค และทฤษฎีล่าสุดที่อยู่เบื้องหลังโมเดลพื้นฐาน
- การปรับปรุงประสิทธิภาพของ LLM ของคุณ นอกเหนือจากการปรับแต่งแบบละเอียด | Udemy: หลักสูตรที่ออกแบบมาสำหรับผู้นำธุรกิจและนักพัฒนาที่สนใจในการปรับแต่งโมเดล LLM และสำรวจเทคนิคในการปรับปรุงประสิทธิภาพ
- ข้อมูลเบื้องต้นเกี่ยวกับโมเดลภาษาขนาดใหญ่ | Coursera: หลักสูตรการเรียนรู้ระดับย่อยระดับเบื้องต้นที่นำเสนอโดย Google Cloud ซึ่งอธิบายพื้นฐานของโมเดลภาษาขนาดใหญ่ (LLM) และกรณีการใช้งาน ลงทะเบียนฟรี
- หลักสูตร | LLM101x | edX: เรียนรู้วิธีใช้การฝังข้อมูล ฐานข้อมูลเวกเตอร์ และปรับแต่ง LLM ด้วยข้อมูลเฉพาะโดเมนเพื่อเพิ่มไปป์ไลน์ LLM
- การปรับแต่งประสิทธิภาพโมเดลการเรียนรู้เชิงลึก Master Class | Udemy: มาสเตอร์คลาสเกี่ยวกับการปรับแต่งโมเดลการเรียนรู้เชิงลึก ครอบคลุมเทคนิคต่างๆ เพื่อเร่งการเรียนรู้และเพิ่มประสิทธิภาพ
- หลักสูตรและการรับรองโมเดลภาษาขนาดใหญ่ที่ดีที่สุด (LLM): หลักสูตร LLM ที่ได้รับการคัดสรรนี้คัดสรรมาจากสถาบันการศึกษาชั้นนำและผู้นำในอุตสาหกรรม โดยมีจุดมุ่งหมายเพื่อให้การฝึกอบรมที่มีคุณภาพสำหรับบุคคลและทีมงานองค์กรที่ต้องการเรียนรู้หรือพัฒนาทักษะในการปรับแต่ง LLM
- โมเดลภาษาที่เชี่ยวชาญ: ปลดปล่อยพลังของ LLM: ในหลักสูตรที่ครอบคลุมนี้ คุณจะได้เจาะลึกหลักการพื้นฐานของ NLP และสำรวจว่า LLM ได้เปลี่ยนโฉมภูมิทัศน์ของแอปพลิเคชัน AI อย่างไร คู่มือที่ครอบคลุมเกี่ยวกับ NLP และ LLM ขั้นสูง
- LLM Mastery: คู่มือฉบับสมบูรณ์สำหรับ Transformers & Generative AI: หลักสูตรนี้ให้ภาพรวมที่ดีของประวัติ AI และครอบคลุมการปรับแต่งโมเดล LLM หลักสามโมเดล: BERT, GPT และ T5 เหมาะสำหรับผู้ที่สนใจ Generative AI, LLM และแอปพลิเคชันระดับการผลิต
- สำรวจเทคโนโลยีเบื้องหลัง ChatGPT, GPT4 และ LLM: หลักสูตรเดียวที่คุณต้องเรียนรู้เกี่ยวกับโมเดลภาษาขนาดใหญ่ เช่น ChatGPT, GPT4, BERT และอื่นๆ รับข้อมูลเชิงลึกเกี่ยวกับเทคโนโลยีที่อยู่เบื้องหลัง LLM เหล่านี้
- บทนำที่ไม่ใช่ทางเทคนิคสำหรับโมเดลภาษาขนาดใหญ่: ภาพรวมของโมเดลภาษาขนาดใหญ่สำหรับผู้ที่ไม่ใช่ด้านเทคนิค อธิบายความท้าทายที่มีอยู่ และให้คำอธิบายง่ายๆ โดยไม่มีศัพท์เฉพาะที่ซับซ้อน
- โมเดลภาษาขนาดใหญ่: โมเดลพื้นฐานจากพื้นฐาน: เจาะลึกรายละเอียดของโมเดลพื้นฐานใน LLM เช่น BERT, GPT และ T5 ทำความเข้าใจกับความก้าวหน้าล่าสุดที่ปรับปรุงฟังก์ชันการทำงานของ LLM
หนังสือ
- AI เชิงสร้างสรรค์พร้อมโมเดลภาษาขนาดใหญ่ — หลักสูตรเชิงปฏิบัติใหม่โดย Deeplearning.ai และ AWS
- หลักสูตรภาคปฏิบัติที่สอนวิธีปรับแต่งโมเดลภาษาขนาดใหญ่ (LLM) โดยใช้โมเดลการให้รางวัลและการเรียนรู้แบบเสริมกำลัง โดยเน้นที่ AI เชิงสร้างสรรค์
- ตั้งแต่การเลือกข้อมูลไปจนถึงการปรับแต่งอย่างละเอียด: คู่มือทางเทคนิคเพื่อสร้างแบบจำลอง LLM
- คู่มือทางเทคนิคที่ครอบคลุมกระบวนการสร้างแบบจำลอง LLM ตั้งแต่การเลือกข้อมูลไปจนถึงการปรับแต่งอย่างละเอียด
- ตำราความรู้ LLM: จาก RAG ถึง QLoRA ไปจนถึงการปรับแต่งอย่างละเอียด และสูตรอาหารทั้งหมดในระหว่างนั้น!
- ตำราอาหารที่ครอบคลุมที่สำรวจโมเดล LLM ต่างๆ รวมถึงเทคนิคต่างๆ เช่น การดึงและสร้าง (RAG) และการแสดงภาษาคิวรี (QLoRA) รวมถึงกระบวนการปรับแต่งอย่างละเอียด
- หลักการสำหรับการปรับแต่ง LLM อย่างละเอียด
- บทความที่ทำให้เข้าใจถึงกระบวนการปรับแต่ง LLM อย่างละเอียดและสำรวจเทคนิคต่างๆ เช่น การเรียนรู้ในบริบท วิธีการปรับแต่งแบบคลาสสิก การปรับแต่งแบบละเอียดที่มีประสิทธิภาพตามพารามิเตอร์ และการเรียนรู้แบบเสริมแรงด้วยผลตอบรับของมนุษย์ (RLHF)
- ตั้งแต่การเลือกข้อมูลไปจนถึงการปรับแต่งอย่างละเอียด: คู่มือทางเทคนิคเพื่อสร้างแบบจำลอง LLM
- คู่มือทางเทคนิคที่ให้ข้อมูลเชิงลึกเกี่ยวกับการสร้างและการฝึกอบรมโมเดลภาษาขนาดใหญ่ (LLM)
- โมเดลภาษาขนาดใหญ่ที่ลงมือปฏิบัติจริง
- หนังสือที่ครอบคลุมความก้าวหน้าในระบบ AI ภาษาที่ขับเคลื่อนโดยการเรียนรู้เชิงลึก โดยเน้นไปที่โมเดลภาษาขนาดใหญ่
- ปรับแต่ง Llama 2 อย่างละเอียดสำหรับการสร้างข้อความบน Amazon SageMaker JumpStart
- เรียนรู้วิธีปรับแต่งโมเดล Llama 2 โดยใช้ Amazon SageMaker JumpStart เพื่อการสร้างบทสนทนาที่เหมาะสมที่สุด
- การปรับแต่ง LLaMA 2 อย่างละเอียดอย่างรวดเร็วและคุ้มค่าด้วย AWS Trainium
- โพสต์ในบล็อกที่อธิบายวิธีปรับแต่งโมเดล LLaMA 2 อย่างละเอียดอย่างรวดเร็วและคุ้มค่าโดยใช้ AWS Trainium
- การปรับแต่งอย่างละเอียด - การเรียนรู้เชิงลึกขั้นสูงด้วย Python [หนังสือ] : หนังสือที่สำรวจงานการปรับแต่งอย่างละเอียดตามงานการฝึกล่วงหน้าในการเรียนรู้เชิงลึกขั้นสูงด้วย Python
- ตำราความรู้ LLM: จาก, RAG, ถึง QLoRA, ถึง Fine ... : คำแนะนำที่ครอบคลุมเกี่ยวกับการใช้โมเดลภาษาขนาดใหญ่ (LLM) สำหรับงานต่างๆ ครอบคลุมทุกอย่างตั้งแต่พื้นฐานไปจนถึงเทคนิคการปรับแต่งขั้นสูง
- คู่มือเริ่มต้นฉบับย่อสำหรับโมเดลภาษาขนาดใหญ่: กลยุทธ์และดีที่สุด ... : คู่มือที่มุ่งเน้นไปที่กลยุทธ์และแนวทางปฏิบัติที่ดีที่สุดสำหรับโมเดลภาษาขนาดใหญ่ (LLM) เช่น BERT, T5 และ ChatGPT ซึ่งจัดแสดงประสิทธิภาพที่ไม่เคยมีมาก่อนในงาน NLP ต่างๆ
- 4. เทคนิค GPT-4 และ ChatGPT ขั้นสูง - การพัฒนาแอป ... : บทที่เจาะลึกเทคนิคขั้นสูงสำหรับ GPT-4 และ ChatGPT รวมถึงวิศวกรรมที่รวดเร็ว การเรียนรู้แบบ Zero-shot การเรียนรู้แบบไม่กี่ช็อต และการปรับแต่งเฉพาะงาน การปรับแต่ง
- โมเดลภาษาขนาดใหญ่คืออะไร - อธิบาย LLM AI - AWS : คำอธิบายโมเดลภาษาขนาดใหญ่ (LLM) อภิปรายแนวคิดของการเรียนรู้ไม่กี่ครั้งและการปรับแต่งอย่างละเอียดเพื่อปรับปรุงประสิทธิภาพของโมเดล
เอกสารวิจัย
- LLM-อะแดปเตอร์: ตระกูลอะแดปเตอร์สำหรับการปรับแต่งพารามิเตอร์อย่างมีประสิทธิภาพ ?: เอกสารนี้นำเสนอ LLM-อะแดปเตอร์ ซึ่งเป็นเฟรมเวิร์กที่ใช้งานง่ายที่รวมอะแดปเตอร์ต่างๆ เข้ากับ LLM สำหรับการปรับแต่งพารามิเตอร์อย่างมีประสิทธิภาพ (PEFT) ในงานต่างๆ
- การปรับแต่ง LLM แบบละเอียดแบบสองขั้นตอนโดยมีความเชี่ยวชาญน้อยลง ?: ProMoT ซึ่งเป็นเฟรมเวิร์กการปรับแต่งแบบละเอียดแบบสองขั้นตอน จัดการกับปัญหาของความเชี่ยวชาญด้านรูปแบบใน LLM ผ่านการปรับพร้อมท์พร้อมท์ด้วย MODel Tuning ซึ่งปรับปรุงประสิทธิภาพการเรียนรู้ทั่วไปในบริบท
- การปรับแต่งโมเดลภาษาองค์กรขนาดใหญ่อย่างละเอียดผ่านการใช้เหตุผลเชิงอภิปรัชญา ?: บทความนี้เสนอสถาปัตยกรรมสัญลักษณ์ประสาทที่รวมโมเดลภาษาขนาดใหญ่ (LLM) เข้ากับกราฟความรู้ระดับองค์กร (EKG) เพื่อให้ได้การปรับแต่ง LLM เฉพาะโดเมนอย่างละเอียด
- QLoRA: การปรับแต่งอย่างมีประสิทธิภาพของ LLM เชิงปริมาณ ?: QLoRA เป็นวิธีการปรับแต่งที่มีประสิทธิภาพซึ่งช่วยลดการใช้หน่วยความจำในขณะที่ยังคงประสิทธิภาพงานไว้ โดยนำเสนอข้อมูลเชิงลึกเกี่ยวกับโมเดลภาษาที่ได้รับการฝึกล่วงหน้าเชิงปริมาณ
- การปรับแต่งพารามิเตอร์แบบเต็มอย่างละเอียดสำหรับโมเดลภาษาขนาดใหญ่ที่มีทรัพยากรจำกัด ?: งานนี้แนะนำ LOMO ซึ่งเป็นเทคนิคการเพิ่มประสิทธิภาพของหน่วยความจำเหลือน้อย ซึ่งช่วยให้สามารถปรับพารามิเตอร์อย่างละเอียดแบบเต็มของ LLM ขนาดใหญ่ที่มีทรัพยากร GPU ที่จำกัดได้
- LoRA: การปรับโมเดลภาษาขนาดใหญ่ในระดับต่ำ ?: LoRA เสนอวิธีการเพื่อปรับโมเดลที่ได้รับการฝึกอบรมล่วงหน้าขนาดใหญ่ให้เข้ากับงานเฉพาะโดยการฉีดเมทริกซ์การแบ่งย่อยอันดับที่สามารถฝึกได้ลงในแต่ละเลเยอร์ ซึ่งจะลดจำนวนพารามิเตอร์ที่สามารถฝึกได้ในขณะที่ยังคงรักษาคุณภาพของโมเดลไว้
- การเพิ่มประสิทธิภาพ LLM ด้วยการปรับแต่งเชิงวิวัฒนาการสำหรับการสร้างสรุปข่าว ?: บทความนี้นำเสนอกระบวนทัศน์ใหม่สำหรับการสร้างสรุปข่าวโดยใช้ LLM โดยผสมผสานอัลกอริธึมทางพันธุกรรมและความสามารถในการเข้าใจภาษาธรรมชาติที่ทรงพลัง
- ภาษามีอิทธิพลต่อกันอย่างไร? การศึกษาการแบ่งปันข้อมูลข้ามภาษาระหว่างการปรับแต่ง LLM อย่างละเอียด ?: การศึกษานี้ตรวจสอบการแบ่งปันข้อมูลข้ามภาษาระหว่างการปรับแต่งโมเดลภาษาขนาดใหญ่หลายภาษา (MLLM) และวิเคราะห์อิทธิพลของภาษาต่างๆ ที่มีต่อประสิทธิภาพของโมเดล
- การปรับแต่งโมเดลภาษาอย่างละเอียดด้วย Just Forward Passes ?: MeZO ซึ่งเป็นเครื่องมือเพิ่มประสิทธิภาพลำดับที่ศูนย์ที่มีประสิทธิภาพของหน่วยความจำ ช่วยให้สามารถปรับโมเดลภาษาขนาดใหญ่ได้อย่างละเอียดในขณะที่ลดความต้องการหน่วยความจำลงอย่างมาก
- การเรียนรู้การใช้เหตุผลเหนือกราฟฉาก: กรณีศึกษาการปรับ LLM อย่างละเอียด ?: งานนี้สำรวจความสามารถในการบังคับใช้ของ GPT-2 LLM ในการวางแผนงานด้วยหุ่นยนต์ ซึ่งแสดงให้เห็นถึงศักยภาพในการใช้ LLM ในสถานการณ์การวางแผนงานในขอบเขตอันยาวไกล
- การปรับแต่งโมเดลภาษาขนาดใหญ่อย่างละเอียดแบบส่วนตัวด้วย: บทความนี้สำรวจการประยุกต์ใช้ความเป็นส่วนตัวที่แตกต่างกันเพื่อเพิ่มการรับประกันความเป็นส่วนตัวให้กับการปรับแต่งโมเดลภาษาขนาดใหญ่ (LLM)
- DISC-LawLLM: การปรับแต่งแบบจำลองภาษาขนาดใหญ่อย่างละเอียดสำหรับระบบกฎหมายอัจฉริยะ: บทความนี้นำเสนอ DISC-LawLLM ซึ่งเป็นระบบกฎหมายอัจฉริยะที่ใช้ LLM ที่ได้รับการปรับแต่งอย่างละเอียดพร้อมความสามารถในการให้เหตุผลทางกฎหมายเพื่อให้บริการทางกฎหมายที่หลากหลาย
- การปรับแต่งคำสั่งแบบหลายงานของ LLaMa สำหรับสถานการณ์เฉพาะ: ตอบ: บทความนี้จะศึกษาประสิทธิภาพของการปรับแต่ง LLaMa ซึ่งเป็น LLM พื้นฐานในงานเขียนเฉพาะ ซึ่งแสดงให้เห็นถึงการปรับปรุงความสามารถในการเขียนอย่างมีนัยสำคัญ
- การฝึกอบรมโมเดลภาษาให้ทำตามคำแนะนำพร้อมกับคำติชมของมนุษย์: บทความนี้เสนอวิธีการจัดโมเดลภาษาให้สอดคล้องกับจุดประสงค์ของผู้ใช้โดยการปรับแต่งอย่างละเอียดโดยใช้คำติชมของมนุษย์ ส่งผลให้โมเดลเป็นที่ต้องการมากกว่าโมเดลที่ใหญ่กว่าในการประเมินโดยมนุษย์
- โมเดลภาษาขนาดใหญ่สามารถปรับปรุงตนเองได้: บทความนี้แสดงให้เห็นว่า LLM สามารถปรับปรุงความสามารถในการให้เหตุผลด้วยตนเองโดยการปรับแต่งอย่างละเอียดโดยใช้โซลูชันที่สร้างขึ้นเอง บรรลุผลการปฏิบัติงานที่ล้ำสมัยโดยไม่ต้องมีป้ายบอกความจริงภาคพื้นดิน
- การใช้แบบจำลองภาษาขนาดใหญ่สำหรับการใช้งานทางการแพทย์: บทความนี้เน้นย้ำถึงศักยภาพของ LLM ที่ได้รับการปรับแต่งในการใช้งานทางการแพทย์ ปรับปรุงความแม่นยำในการวินิจฉัย และสนับสนุนการตัดสินใจทางคลินิก
- การปรับขนาดคำสั่ง-โมเดลภาษาที่ปรับแต่งอย่างละเอียด: บทความนี้จะสำรวจการปรับแต่งคำสั่งอย่างละเอียดใน LLM ซึ่งแสดงให้เห็นถึงการปรับปรุงประสิทธิภาพและลักษณะทั่วไปของงานที่มองไม่เห็นอย่างมีนัยสำคัญ
- การปรับแต่งโมเดลภาษาขนาดพันล้านแบบละเอียดแบบรวมศูนย์: งานนี้แนะนำ FwdLLM ซึ่งเป็นโปรโตคอลการเรียนรู้แบบรวมศูนย์ที่ออกแบบมาเพื่อปรับปรุงประสิทธิภาพของการปรับแต่ง LLM ขนาดใหญ่แบบละเอียดบนอุปกรณ์เคลื่อนที่ ปรับปรุงประสิทธิภาพหน่วยความจำและเวลา
- ภาพรวมที่ครอบคลุมของแบบจำลองภาษาขนาดใหญ่: เอกสารนี้ให้ภาพรวมของการพัฒนาและการประยุกต์แบบจำลองภาษาขนาดใหญ่ และความสามารถในการถ่ายโอนการเรียนรู้
- การปรับแต่งโมเดลภาษาอย่างละเอียดเพื่อค้นหาข้อตกลงระหว่างมนุษย์กับ: บทความนี้สำรวจการปรับแต่ง LLM ขนาดใหญ่เพื่อสร้างข้อความที่เป็นเอกฉันท์ที่ได้รับการอนุมัติสูงสุดสำหรับกลุ่มคนที่มีความคิดเห็นที่หลากหลาย
วิดีโอ
- ข้อมูลเบื้องต้นเกี่ยวกับโมเดลภาษาขนาดใหญ่โดย Andrej Karpathy: นี่คือการแนะนำ 1 ชั่วโมงเกี่ยวกับโมเดลภาษาขนาดใหญ่ อะไรคือสิ่งที่พวกเขากำลังมุ่งหน้าไป การเปรียบเทียบและการเปรียบเทียบกับระบบปฏิบัติการในปัจจุบัน และความท้าทายบางประการที่เกี่ยวข้องกับความปลอดภัยของกระบวนทัศน์การประมวลผลใหม่นี้
- การปรับแต่ง Llama 2 อย่างละเอียดบนชุดข้อมูลของคุณเอง | ฝึกอบรม LLM สำหรับคุณ ...: เรียนรู้วิธีปรับแต่งโมเดล Llama 2 บนชุดข้อมูลที่กำหนดเอง
- การปรับแต่ง LLM อย่างละเอียดด้วย QLoRA บน GPU ตัวเดียว: การฝึก Falcon-7b บน ...: วิดีโอนี้สาธิตกระบวนการปรับแต่งอย่างละเอียดของ Falcon 7b LLM โดยใช้ QLoRA
- การปรับแต่ง LLM อย่างละเอียดโดยใช้ PEFT | Introduction to Large Language ...: ค้นพบวิธีปรับแต่ง LLM โดยใช้ PEFT ซึ่งเป็นเทคนิคที่ต้องใช้ทรัพยากรน้อยลง
- LLAMA-2 Open-Source LLM: การปรับแต่งอย่างละเอียดแบบกำหนดเองทำได้ง่ายบน ...: คำแนะนำทีละขั้นตอนเกี่ยวกับวิธีการปรับแต่งโมเดล LLama 2 LLM บนชุดข้อมูลที่คุณกำหนดเอง
- หลักสูตรใหม่: การปรับแต่งโมเดลภาษาขนาดใหญ่อย่างละเอียด - YouTube: วิดีโอนี้แนะนำหลักสูตรเกี่ยวกับการปรับแต่ง LLM อย่างละเอียด ซึ่งครอบคลุมการเลือกแบบจำลอง การเตรียมข้อมูล การฝึกอบรม และการประเมินผล
- ถาม: วิธีสร้างชุดข้อมูลคำสั่งสำหรับการปรับแต่ง LLM ของฉันอย่างละเอียด ...: ในบทช่วยสอนนี้ ผู้เริ่มต้นจะเรียนรู้เกี่ยวกับการปรับแต่ง LLM อย่างละเอียด รวมถึงเวลา อย่างไร และเหตุใดจึงควรทำ
- LLM Module 4: การปรับแต่งและประเมิน LLM อย่างละเอียด 4.13.1 สมุดบันทึก ...: การสาธิตสมุดบันทึกเกี่ยวกับการปรับแต่งและประเมิน LLM
- การปรับแต่ง/การปรับแต่ง/การปรับแต่งของ Google LLM - เริ่มต้นใช้งาน ...: เริ่มต้นด้วยการปรับแต่งโมเดลภาษาขนาดใหญ่ PaLM 2 ของ Google อย่างละเอียดผ่านคำแนะนำทีละขั้นตอน
- การฝึกอบรมล่วงหน้ากับการปรับแต่งอย่างละเอียดเทียบกับการเรียนรู้ในบริบทของ LLM (GPT-x ...: คู่มือขั้นสูงสุดที่อธิบายการฝึกอบรมล่วงหน้า การปรับแต่งอย่างละเอียด และการเรียนรู้ในบริบทของ LLM เช่น GPT-x
- วิธีปรับแต่ง LLM ด้วย PDF - บทช่วยสอน Langchain - YouTube: เรียนรู้วิธีปรับแต่ง GPT LLM ของ OpenAI เพื่อประมวลผลเอกสาร PDF โดยใช้ไลบรารี Langchain และ PDF
- EasyTune Walkthrough - YouTube - คำแนะนำโดยละเอียดเกี่ยวกับการปรับแต่ง LLM ด้วย QLoRA บน GPU ตัวเดียวโดยใช้ Falcon-7b
- ปลดล็อกศักยภาพของบทเรียน ChatGPT ในการฝึกอบรมและวิจิตร ... - นักเรียนนำเสนอการปรับแต่งคำแนะนำและการเรียนรู้ LLM ในบริบทอย่างละเอียดด้วยสัญลักษณ์
- ข่าว AI: การสร้าง LLM โดยไม่ต้องใช้โค้ด! - YouTube - Maya Akim พูดคุยเกี่ยวกับกรณีการใช้งานการปรับแต่ง LLM 5 อันดับแรกที่คุณต้องทราบ
- กรณีการใช้งานการปรับแต่ง LLM โดยละเอียด 5 อันดับแรกที่คุณต้องทราบ - YouTube - วิดีโอเชิงลึกที่เน้นกรณีการใช้งานการปรับแต่ง LLM อย่างละเอียด 5 อันดับแรกพร้อมลิงก์เพิ่มเติมสำหรับการสำรวจเพิ่มเติม
- clip2 llm emory - YouTube - เรียนรู้วิธีปรับแต่ง Llama 2 บนชุดข้อมูลของคุณเอง และฝึกอบรม LLM สำหรับกรณีการใช้งานเฉพาะของคุณ
- วิธีที่ง่ายที่สุดในการปรับแต่ง LLAMA-v2 บนเครื่องท้องถิ่น! - YouTube - วิดีโอแนะนำทีละขั้นตอนที่สาธิตวิธีที่ง่ายที่สุด ง่ายที่สุด และเร็วที่สุดในการปรับแต่ง LLAMA-v2 บนเครื่องของคุณสำหรับชุดข้อมูลที่กำหนดเอง
- LLM การฝึกอบรมและการปรับแต่งอย่างละเอียด: บทนำ - YouTube - ข้อมูลเบื้องต้นเกี่ยวกับการฝึกอบรมและการปรับแต่ง LLM อย่างละเอียด รวมถึงแนวคิดที่สำคัญและ NeurIPS LLM Efficiency Challenge
- การปรับแต่ง LLM อย่างละเอียดด้วย PEFT และ LoRA - YouTube - วิดีโอที่ครอบคลุมที่สำรวจวิธีใช้ PEFT เพื่อปรับแต่งโมเดล GPT ในรูปแบบตัวถอดรหัส รวมถึงพื้นฐานของการปรับแต่งและการอัพโหลด LoRA อย่างละเอียด
- การสร้างและการดูแลชุดข้อมูลสำหรับการปรับแต่ง RLHF และ LLM ... - เรียนรู้เกี่ยวกับการสร้างและการดูแลชุดข้อมูลสำหรับ RLHF (การเรียนรู้เสริมจากคำติชมของมนุษย์) และการปรับแต่ง LLM (โมเดลภาษาขนาดใหญ่) โดยได้รับการสนับสนุนจาก Argilla
- การปรับแต่ง LLM (OpenAI GPT) อย่างละเอียดด้วยข้อมูลที่กำหนดเองใน Python - YouTube - สำรวจวิธีขยาย LLM (OpenAI GPT) โดยการปรับแต่งอย่างละเอียดด้วยชุดข้อมูลที่กำหนดเองเพื่อให้ถามตอบ สรุป และฟังก์ชันอื่นๆ ที่คล้ายกับ ChatGPT
เครื่องมือและซอฟต์แวร์
- LLaMA Efficient Tuning: เฟรมเวิร์กการปรับแต่ง LLM ที่ใช้งานง่าย (LLaMA-2, BLOOM, Falcon)
- H2O LLM Studio : กรอบงานและ GUI ที่ไม่มีโค้ดสำหรับการปรับแต่ง LLM อย่างละเอียด
- PEFT : วิธีการปรับพารามิเตอร์อย่างมีประสิทธิภาพ (PEFT) สำหรับการปรับโมเดลภาษาที่ได้รับการฝึกอบรมล่วงหน้าไปใช้กับแอปพลิเคชันดาวน์สตรีมอย่างมีประสิทธิภาพ
- โมเดลที่เหมือน ChatGPT : เรียกใช้โมเดลที่เหมือน ChatGPT ที่รวดเร็วในอุปกรณ์ของคุณ
- กลีบดอกไม้: เรียกใช้โมเดลภาษาขนาดใหญ่ เช่น BLOOM-176B ร่วมกัน ช่วยให้คุณสามารถโหลดส่วนเล็กๆ ของโมเดลและร่วมทีมกับผู้อื่นเพื่อการอนุมานหรือปรับแต่งอย่างละเอียด -
- NVIDIA NeMo: ชุดเครื่องมือสำหรับการสร้างโมเดล AI การสนทนาที่ล้ำสมัยและออกแบบมาโดยเฉพาะสำหรับ Linux
- H2O LLM Studio: เฟรมเวิร์กและเครื่องมือ GUI ที่ไม่มีโค้ดสำหรับการปรับแต่งโมเดลภาษาขนาดใหญ่บน Windows ?
- Ludwig AI: เฟรมเวิร์กที่ใช้โค้ดน้อยสำหรับการสร้าง LLM แบบกำหนดเองและเครือข่าย Deep Neural อื่นๆ ฝึกอบรม LLM ที่ทันสมัยได้อย่างง่ายดายด้วยไฟล์การกำหนดค่า YAML ที่ประกาศ -
- bert4torch: การใช้งาน PyTorch อันงดงามของหม้อแปลง โหลดตุ้มน้ำหนักแบบจำลองขนาดใหญ่แบบโอเพ่นซอร์สต่างๆ เพื่อการให้เหตุผลและการปรับแต่งอย่างละเอียด
- Alpaca.cpp: เรียกใช้โมเดลที่คล้ายกับ ChatGPT ที่รวดเร็วภายในอุปกรณ์ของคุณ การผสมผสานระหว่างโมเดลรองพื้น LLaMA และการจำลองแบบเปิดของ Stanford Alpaca เพื่อการปรับแต่งแบบละเอียดตามคำแนะนำ -
- promptfoo: ประเมินและเปรียบเทียบเอาต์พุต LLM จับการถดถอย และปรับปรุงพร้อมท์โดยใช้การประเมินอัตโนมัติและอินพุตที่เป็นตัวแทนของผู้ใช้
การประชุมและกิจกรรม
- การสนทนา ML/AI: Neuro-Symbolic AI - ทางเลือกแทน LLM - การพบปะครั้งนี้จะหารือเกี่ยวกับประสบการณ์ในการปรับแต่ง LLM อย่างละเอียด และสำรวจ AI ที่เป็นสัญลักษณ์ทางระบบประสาทเป็นทางเลือก
- AI Dev Day - ซีแอตเทิล จันทร์ที่ 30 ต.ค. 2023 เวลา 17:00 น. - การพูดคุยด้านเทคนิคเกี่ยวกับความสามารถในการสังเกต LLM ที่มีประสิทธิภาพและโอกาสในการปรับแต่งอย่างละเอียดโดยใช้การค้นหาความคล้ายคลึงกันของเวกเตอร์
- กิจกรรม DeepLearning.AI - ชุดกิจกรรมต่างๆ รวมถึงการบรรเทาอาการประสาทหลอน LLM การปรับแต่ง LLM อย่างละเอียดด้วย PyTorch 2.0 และ ChatGPT และโปรแกรมการศึกษา AI
- AI Dev Day - นิวยอร์ก พฤหัสบดีที่ 26 ต.ค. 2023 เวลา 17:30 น. - เสวนาด้านเทคนิคเกี่ยวกับแนวทางปฏิบัติที่ดีที่สุดในแอปพลิเคชัน GenAI และการใช้ LLM สำหรับการแจ้งเตือนแบบเรียลไทม์แบบส่วนตัว
- LLM แชทและตัวแทน AI - ใช้ Gen AI เพื่อสร้างระบบ AI และตัวแทน - กิจกรรมที่เน้นไปที่ LLM, ตัวแทน AI และข้อมูลลูกโซ่ พร้อมโอกาสในการโต้ตอบผ่านการแชทในกิจกรรม
- กลุ่มนักพัฒนา AI/LLM/ChatGPT ของ NYC - เสวนา/เวิร์กช็อปด้านเทคโนโลยีเป็นประจำสำหรับนักพัฒนาที่สนใจใน AI, LLM, ChatGPT, NLP, ML, ข้อมูล ฯลฯ
- การใช้ประโยชน์จาก LLM สำหรับข้อมูลองค์กร อังคารที่ 14 พ.ย. 2566 เวลา 14:00 น. - เจาะลึกกลยุทธ์ LLM ที่สำคัญซึ่งปรับแต่งมาสำหรับแอปพลิเคชันข้อมูลที่ไม่เปิดเผยต่อสาธารณะ รวมถึงวิศวกรรมและการเรียกค้นที่รวดเร็ว
- Meetup Applied Machine Learning ของ Bellevue - งานพบปะที่เน้นไปที่เทคนิคการเรียนรู้ของเครื่องแบบประยุกต์และการพัฒนาทักษะของนักวิทยาศาสตร์ข้อมูลและผู้ปฏิบัติงาน ML
- AI & Prompt Engineering Meetup มิวนิค, ด., 5 ต.ค. 2023, 18:15 - แนะนำ H2O LLM Studio สำหรับการปรับแต่ง LLM และรวบรวมผู้ที่ชื่นชอบ AI จากภูมิหลังที่หลากหลาย
- กลุ่มนักพัฒนา AI/ML/ข้อมูลในซีแอตเทิล - พูดคุยด้านเทคนิคเกี่ยวกับการประเมินตัวแทน LLM และการเรียนรู้ AI/ML/ข้อมูลผ่านการฝึกฝน
- Data Science Dojo - DC | Meetup: นี่คือกลุ่มพบปะใน DC สำหรับนักธุรกิจที่สนใจในการสอน การเรียนรู้ และแบ่งปันความรู้และความเข้าใจเกี่ยวกับวิทยาศาสตร์ข้อมูล
- ค้นหากิจกรรมและกลุ่มวิทยาศาสตร์ข้อมูลในดูไบ AE: ค้นพบกิจกรรมและกลุ่มวิทยาศาสตร์ข้อมูลในดูไบ AE เพื่อเชื่อมต่อกับผู้คนที่มีความสนใจเหมือนกับคุณ
- AI Meetup (ด้วยตนเอง): Generative AI และ LLM - Halloween Edition: เข้าร่วมมีตติ้ง AI นี้เพื่อพูดคุยเกี่ยวกับเทคโนโลยีเกี่ยวกับ generative AI และ Large Language Models (LLM) รวมถึงเครื่องมือโอเพ่นซอร์สและแนวปฏิบัติที่ดีที่สุด
- ChatGPT Unleashed: การสาธิตสดและแนวทางปฏิบัติที่ดีที่สุดสำหรับ NLP: กิจกรรมออนไลน์นี้สำรวจการปรับแต่งแบบละเอียดสำหรับโมเดลภาษาขนาดใหญ่ และนำเสนอการใช้งานจริงของ ChatGPT และ LLM
- ค้นหากิจกรรมและกลุ่มวิทยาศาสตร์ข้อมูลในเมืองปูเน่ รัฐอินเดียนา: สำรวจกิจกรรมและกลุ่มออนไลน์หรือด้วยตนเองที่เกี่ยวข้องกับวิทยาศาสตร์ข้อมูลในเมืองปูเน่ รัฐอินเดียนา
- กลุ่มนักพัฒนา DC AI/ML/ข้อมูล | Meetup: กลุ่มนี้มีจุดมุ่งหมายเพื่อรวบรวมผู้ที่ชื่นชอบ AI ในพื้นที่ DC เพื่อเรียนรู้และฝึกฝนเทคโนโลยี AI รวมถึง AI การเรียนรู้ของเครื่อง การเรียนรู้เชิงลึก และวิทยาศาสตร์ข้อมูล
- กลุ่มนักพัฒนา AI/LLM/ChatGPT ของบอสตัน | Meetup: เข้าร่วมกลุ่มนี้ในบอสตันเพื่อเรียนรู้และฝึกฝนเทคโนโลยี AI เช่น LLM, ChatGPT, การเรียนรู้ของเครื่อง, การเรียนรู้เชิงลึก และวิทยาศาสตร์ข้อมูล
- ปารีส NLP | มีตติ้ง: มีตติ้งนี้เน้นไปที่การประยุกต์ใช้การประมวลผลภาษาธรรมชาติ (NLP) ในสาขาต่างๆ อภิปรายการเทคนิค การวิจัย และการประยุกต์ใช้แนวทาง NLP ทั้งแบบดั้งเดิมและสมัยใหม่
- SF AI/LLMs/กลุ่มนักพัฒนา ChatGPT | Meetup: เชื่อมต่อกับผู้ที่ชื่นชอบ AI ในพื้นที่ซานฟรานซิสโก/อ่าวเพื่อเรียนรู้และฝึกฝนเทคโนโลยี AI รวมถึง LLM, ChatGPT, NLP, การเรียนรู้ของเครื่อง, การเรียนรู้เชิงลึก และวิทยาศาสตร์ข้อมูล
- การพบปะกับ AI (ด้วยตนเอง): GenAI และ LLM เพื่อสุขภาพ: เข้าร่วมการพูดคุยเกี่ยวกับเทคโนโลยีเกี่ยวกับการประยุกต์ใช้ LLM ในการดูแลสุขภาพ และเรียนรู้เกี่ยวกับชัยชนะอย่างรวดเร็วในการใช้ LLM สำหรับงานที่เกี่ยวข้องกับสุขภาพ
สไลด์และการนำเสนอ
- การปรับแต่ง LM ขนาดใหญ่อย่างละเอียด: การนำเสนอที่อภิปรายกระบวนการปรับแต่งโมเดลภาษาขนาดใหญ่ เช่น GPT, BERT และ RoBERTa
- LLaMa 2.pptx: สไลด์แนะนำ LLaMa 2 ซึ่งเป็นโมเดลภาษาขนาดใหญ่อันทรงพลังที่สืบทอดมาจาก Meta AI
- LLM.pdf: การนำเสนอสำรวจบทบาทของ Transformers ใน NLP ตั้งแต่ BERT ถึง GPT-3
- Bootcamp โมเดลภาษาขนาดใหญ่: สไลด์ Bootcamp ครอบคลุมแง่มุมต่างๆ ของโมเดลภาษาขนาดใหญ่ รวมถึงการฝึกอบรมตั้งแต่เริ่มต้นและการปรับแต่งอย่างละเอียด
- LHC อธิบายโดย CNN: สไลด์อธิบาย LHC (Large Hadron Collider) โดยใช้ CNN และโมเดลรูปภาพที่ปรับแต่งอย่างละเอียด
- การใช้โมเดลภาษาขนาดใหญ่ในโค้ด 10 บรรทัด: การนำเสนอสาธิตวิธีใช้โมเดลภาษาขนาดใหญ่ในโค้ดเพียง 10 บรรทัด
- LLaMA-Adapter: การปรับแต่งโมเดลภาษาอย่างละเอียดอย่างมีประสิทธิภาพด้วยความสนใจเป็นศูนย์.pdf: สไลด์ที่กล่าวถึง LLaMA-Adapter ซึ่งเป็นเทคนิคที่มีประสิทธิภาพสำหรับการปรับแต่งโมเดลภาษาอย่างละเอียดโดยมีความสนใจเป็นศูนย์
- ข้อมูลเบื้องต้นเกี่ยวกับ LLM: การนำเสนอที่ให้ข้อมูลเบื้องต้นเกี่ยวกับโมเดลภาษาขนาดใหญ่ รวมถึงโมเดลพื้นฐานและการปรับแต่งแบบละเอียดด้วยคู่ที่เสร็จสิ้นพร้อมท์
- LLM Fine-Tuning (東大松尾研LLM講座 วันที่ 5資料) - ชุดลำโพง: สไลด์ที่ใช้สำหรับการบรรยายเกี่ยวกับการปรับแต่งโมเดลภาษาขนาดใหญ่ โดยเฉพาะสำหรับ 東大松尾研サマースクール2023
- ทำให้งานและธุรกิจของคุณเป็นแบบอัตโนมัติด้วย ChatGPT #3: การนำเสนอที่พูดคุยถึงพื้นฐานของ ChatGPT และแอปพลิเคชันสำหรับงานอัตโนมัติและงานทางธุรกิจ
- การปลดล็อกพลังของ Generative AI An Executive's Guide.pdf - คู่มือที่อธิบายกระบวนการปรับแต่งโมเดลภาษาขนาดใหญ่ (LLM) อย่างละเอียดเพื่อปรับแต่งให้ตรงกับความต้องการขององค์กร
- ปรับแต่งและปรับใช้โมเดล Hugging Face NLP | PPT - การนำเสนอที่ให้ข้อมูลเชิงลึกเกี่ยวกับวิธีสร้างและปรับใช้โมเดล LLM โดยใช้ Hugging Face NLP
- 大規模言語モデル時代のHuman-in-the-Loop機械学習 - Speaker Deck - ชุดสไลด์ที่หารือเกี่ยวกับกระบวนการปรับแต่งโมเดลภาษาอย่างละเอียด เพื่อค้นหาข้อตกลงระหว่างมนุษย์ที่มีความต้องการที่หลากหลาย
- ซีรี่ส์ AI และ ML - ความรู้เบื้องต้นเกี่ยวกับ Generative AI และ LLM | PPT - การนำเสนอที่แนะนำ Generative AI และ LLM รวมถึงการใช้งานในแอปพลิเคชันเฉพาะ
- การดึงข้อมูลการสร้างเสริมในทางปฏิบัติ: GenAI ที่ปรับขนาดได้ ... - การนำเสนอที่อภิปรายกรณีการใช้งานสำหรับ Generative AI ข้อจำกัดของโมเดลภาษาขนาดใหญ่ และการใช้การเรียกข้อมูล Augmented Generation (RAG) และเทคนิคการปรับแต่งอย่างละเอียด
- การนำเสนอ LLM ครั้งสุดท้าย | PPT - การนำเสนอที่ครอบคลุมพระราชบัญญัติ Child & Family Agency Act 2013 และหลักการเพื่อผลประโยชน์ที่ดีที่สุดในบริบทของ LLM
- การปรับเปลี่ยนกระบวนทัศน์ LLM ในระบบผู้แนะนำ.pdf - PDF ที่อธิบายกระบวนการปรับแต่งอย่างละเอียดและการปรับเปลี่ยนตามวัตถุประสงค์ในระบบผู้แนะนำที่ใช้ LLM
- AI สนทนากับโมเดล Transformer | PPT - การนำเสนอที่เน้นการใช้ Transformer Models ในแอปพลิเคชัน Conversational AI
- ลามะดัชนี | PPT - การนำเสนอเกี่ยวกับการเพิ่มขึ้นของ LLM และการสร้างแอปพลิเคชันที่ขับเคลื่อนด้วย LLM
- LLaMA-Adapter: การปรับแต่งโมเดลภาษาอย่างละเอียดอย่างมีประสิทธิภาพด้วย Zero-init Attention.pdf - PDF ที่อภิปรายเกี่ยวกับการปรับแต่งโมเดลภาษาอย่างละเอียดอย่างมีประสิทธิภาพโดยให้ความสนใจเป็นศูนย์โดยใช้ LLaMA
พอดแคสต์
- AI เชิงปฏิบัติ: การเรียนรู้ของเครื่อง วิทยาศาสตร์ข้อมูล - ทำให้ปัญญาประดิษฐ์ใช้งานได้จริง มีประสิทธิผล และทุกคนสามารถเข้าถึงได้ มีส่วนร่วมในการสนทนาที่มีชีวิตชีวาเกี่ยวกับ AI, การเรียนรู้ของเครื่อง, การเรียนรู้เชิงลึก, โครงข่ายประสาทเทียม และอื่นๆ ข้อมูลเชิงลึกที่เข้าถึงได้และสถานการณ์ในโลกแห่งความเป็นจริงสำหรับทั้งผู้เริ่มต้นและผู้ปฏิบัติงานที่มีประสบการณ์
- ความขัดแย้งแบบไล่ระดับ: การสำรวจการเรียนรู้ของเครื่อง, AI, การเรียนรู้เชิงลึก - ชมเบื้องหลังเพื่อเรียนรู้จากผู้นำในอุตสาหกรรมเกี่ยวกับวิธีการที่พวกเขานำการเรียนรู้เชิงลึกไปใช้ในสถานการณ์จริง รับข้อมูลเชิงลึกเกี่ยวกับอุตสาหกรรมการเรียนรู้ของเครื่องและอัปเดตด้วยแนวโน้มล่าสุด
- Weaviate Podcast - เข้าร่วม Connor Shorten สำหรับ Weaviate Podcast Series ซึ่งมีการสัมภาษณ์กับผู้เชี่ยวชาญและการอภิปรายในหัวข้อที่เกี่ยวข้องกับ AI
- พื้นที่แฝง: พอดคาสต์ AI Engineer - Codegen, ตัวแทน, วิสัยทัศน์คอมพิวเตอร์, วิทยาศาสตร์ข้อมูล, AI UX และ All Things Software 3.0 - ดำดิ่งสู่โลกของ AI Engineering ครอบคลุมหัวข้อต่าง ๆ เช่นการสร้างรหัสวิสัยทัศน์คอมพิวเตอร์วิทยาศาสตร์ข้อมูลและความก้าวหน้าล่าสุด ใน ai ux
- การเรียนรู้ที่ไม่ได้รับการดูแล - ได้รับข้อมูลเชิงลึกเกี่ยวกับภูมิทัศน์ AI ที่กำลังพัฒนาอย่างรวดเร็วและผลกระทบต่อธุรกิจและโลก สำรวจการอภิปรายเกี่ยวกับแอปพลิเคชัน LLM แนวโน้มและเทคโนโลยีรบกวน
- พอดคาสต์ Twiml AI (เดิมคือสัปดาห์นี้ในการเรียนรู้ของเครื่อง) - ดำน้ำลึกลงไปในแนวทางการปรับแต่งที่ใช้ใน AI, LLM ความสามารถและข้อ จำกัด และเรียนรู้จากผู้เชี่ยวชาญในสาขานี้
- AI และอนาคตของการทำงานในพอดคาสต์ Apple: พอดคาสต์โฮสต์โดย SC Moatti พูดคุยถึงผลกระทบของ AI ต่ออนาคตของการทำงาน
- AI ที่ใช้งานได้จริง: การเรียนรู้ของเครื่อง, วิทยาศาสตร์ข้อมูล: การปรับแต่งเทียบกับ RAG: ตอนนี้สำรวจการเปรียบเทียบระหว่างการปรับแต่งและการเพิ่มการเพิ่มการดึงในการเรียนรู้ของเครื่องจักรและวิทยาศาสตร์ข้อมูล
- การเรียนรู้ที่ไม่ได้รับการดูแลเกี่ยวกับ Apple Podcasts: Episode 20 มีการสัมภาษณ์กับ Dario Amodei ซีอีโอของมานุษยวิทยาเกี่ยวกับอนาคตของ AGI และ AI
- เอกสารที่อ่านบน AI | พอดคาสต์บน Spotify: พอดคาสต์นี้ช่วยให้คุณอัปเดตด้วยเทรนด์ล่าสุดและสถาปัตยกรรมที่มีประสิทธิภาพดีที่สุดในสาขาวิทยาศาสตร์คอมพิวเตอร์
- วันนี้ในพอดคาสต์ AI บนพอดคาสต์ Apple: ครอบคลุมหัวข้อที่เกี่ยวข้องกับ AI ต่าง ๆ พอดคาสต์นี้นำเสนอข้อมูลเชิงลึกที่น่าตื่นเต้นในโลกของ AI
- ทั้งหมดเกี่ยวกับการประเมินแอปพลิเคชัน LLM // Shahul ES // #179 MLOPS: ในตอนนี้ Shahul ES แบ่งปันความเชี่ยวชาญของเขาในการประเมินผลในโมเดลโอเพ่นซอร์สรวมถึงข้อมูลเชิงลึกเกี่ยวกับการดีบักการแก้ไขปัญหาและมาตรฐาน
- AI ทุกวันบนพอดคาสต์ Apple: โฮสต์โดย Conner, Ethan และ Farb พอดคาสต์นี้สำรวจเรื่องราวที่เกี่ยวข้องกับ AI ที่น่าสนใจ
- วิดีโอ Yannic Kilcher (เสียงเท่านั้น) | พอดคาสต์เกี่ยวกับ Spotify: Yannic Kilcher กล่าวถึงงานวิจัยการเรียนรู้ของเครื่องการเขียนโปรแกรมและผลกระทบที่กว้างขึ้นของ AI ในสังคม
- พอดคาสต์ Curated Lesswrong | พอดคาสต์บน Spotify: เวอร์ชันเสียงของโพสต์ที่แชร์ในจดหมายข่าว LessWrong Curated
- SAI: The Security และ AI Podcast บน Apple Podcasts: ตอนที่มุ่งเน้นไปที่โปรแกรมการให้ความปลอดภัยทางไซเบอร์ของ Openai
เวอร์ชันเริ่มต้นของรายการที่ยอดเยี่ยมนี้ถูกสร้างขึ้นด้วยความช่วยเหลือของเครื่องกำเนิดรายการที่ยอดเยี่ยม มันเป็นแพ็คเกจ Python โอเพนซอร์ซที่ใช้พลังของรุ่น GPT เพื่อดูแลโดยอัตโนมัติและสร้างจุดเริ่มต้นสำหรับรายการทรัพยากรที่เกี่ยวข้องกับหัวข้อเฉพาะ