โครงการพร้อมท์มหัศจรรย์?♂️
พื้นที่เก็บข้อมูลนี้มีทรัพยากรด้านวิศวกรรม Prompt ที่คัดกรองด้วยมือ โดยมุ่งเน้นไปที่ Generative Pretrained Transformer (GPT), ChatGPT, PaLM และอื่นๆ
สารบัญ
- กระดาษ
- เครื่องมือและรหัส
- เอพีไอ
- ชุดข้อมูล
- แบบอย่าง
- เครื่องตรวจจับเนื้อหา AI
- ให้ความรู้
- วิดีโอ
- หนังสือ
- ชุมชน
- วิธีการมีส่วนร่วม
กระดาษ
-
เทคโนโลยีวิศวกรรมพร้อมท์ :
- วิธีปรับปรุงโครงการ ChatGPT Prompt โดยใช้ไดเร็กทอรี Prompt Pattern [2023] (Arxiv)
- การเพิ่มประสิทธิภาพแบบแยกตามการไล่ระดับสีเพื่อการปรับแต่งและการค้นพบที่รวดเร็ว [2023] (Arxiv) - เคล็ดลับทั่วไป: การสาธิตการสร้างห่วงโซ่ความคิดสำหรับโมเดลภาษาขนาดใหญ่ [2023] (Arxiv)
- คำแนะนำแบบก้าวหน้า: การเรียนรู้แบบจำลองภาษาอย่างต่อเนื่อง [2023] (Arxiv)
- เคล็ดลับการประมวลผลเป็นชุด: การอนุมานอย่างมีประสิทธิภาพด้วย LLM API [2023] (Arxiv)
- การแจ้งเตือนอย่างต่อเนื่องเพื่อแก้ไขปัญหาที่ซับซ้อน [2022] (Arxiv)
- เคล็ดลับเชิงโครงสร้าง: ปรับขนาดการเรียนรู้ตามบริบทเป็น 1,000 ตัวอย่าง [2022] (Arxiv)
- โมเดลภาษาขนาดใหญ่เป็นวิศวกรพร้อมท์ระดับมนุษย์ [2022] (Arxiv)
- ถามฉันอะไรก็ได้: กลยุทธ์ง่ายๆ สำหรับการกระตุ้นโมเดลภาษา [2022] (Arxiv)
- เคล็ดลับให้ GPT-3 มีความน่าเชื่อถือ [2022] (Arxiv)
- เคล็ดลับด่วน: แนวทางแบบแยกส่วนในการแก้ปัญหางานที่ซับซ้อน [2022] (Arxiv)
- PromptChainer: การผูกมัดโมเดลภาษาขนาดใหญ่พร้อมท์ผ่านการเขียนโปรแกรมด้วยภาพ [2022] (Arxiv)
- การตรวจสอบวิศวกรรมคำใบ้ในแบบจำลองการแพร่กระจาย [2022] (Arxiv)
- แสดงผลงานของคุณ: ร่างคร่าวๆ ของการคำนวณขั้นกลางโดยใช้โมเดลภาษา [2021] (Arxiv)
- เคล็ดลับการสอนเพื่อพลิกโฉม GPTk [2021] (Arxiv)
- ตัวชี้นำที่เรียงลำดับอย่างน่าอัศจรรย์และการค้นพบ: การเอาชนะความไวของลำดับคิวตัวอย่างขนาดเล็ก [2021] (Arxiv)
- พลังแห่งขนาดเพื่อการปรับพารามิเตอร์ที่รวดเร็วอย่างมีประสิทธิภาพ [2021] (Arxiv)
- การเขียนโปรแกรมโมเดลภาษาขนาดใหญ่: เหนือกว่ากระบวนทัศน์ไม่กี่ช็อต [2021] (Arxiv) - การปรับแต่งคำนำหน้า: การปรับคำแนะนำอย่างต่อเนื่องให้เหมาะสมสำหรับรุ่น [2021] (Arxiv)
การใช้เหตุผลและการเรียนรู้ตามบริบท :
- การใช้เหตุผลลูกโซ่การคิดหลายรูปแบบในแบบจำลองภาษา [2023] (Arxiv)
- ในความคิดที่สอง เราไม่ยึดถือเส้นทางของการคิดขั้นเดียว! อคติและความเป็นอันตรายในการอนุมานแบบ Zero-shot [2022] (Arxiv)
- ReAct: การทำงานร่วมกันของการใช้เหตุผลและการกระทำในรูปแบบภาษา [2022] (Arxiv)
- โมเดลภาษาเป็นนักให้เหตุผลโลภ: การวิเคราะห์อย่างเป็นทางการของห่วงโซ่ความคิด [2022] (Arxiv)
- ความก้าวหน้าในการสร้างแบบจำลองภาษาที่ดีขึ้นสำหรับการอนุมาน [2022] (Arxiv)
- โมเดลภาษาขนาดใหญ่เป็นเหตุผลที่ไร้เหตุผล [2022] (Arxiv)
- การใช้เหตุผลเหมือนผู้ดำเนินการโปรแกรม [2022] (Arxiv)
- ความสอดคล้องในตนเองปรับปรุงการใช้เหตุผลลูกโซ่ความคิดในแบบจำลองภาษา [2022] (Arxiv)
- ทบทวนบทบาทของการสาธิต: อะไรทำให้การเรียนรู้ตามบริบทได้ผล [2022] (อาร์ซิฟ)
- เรียนรู้ที่จะอธิบาย: การใช้เหตุผลหลายรูปแบบสำหรับคำถามและคำตอบทางวิทยาศาสตร์ผ่านห่วงโซ่ความคิด [2022] (Arxiv)
- Thought Chain กระตุ้นให้เกิดการอนุมานในโมเดลภาษาขนาดใหญ่ [2021] (Arxiv)
- การสร้างความรู้พร้อมท์สำหรับการใช้เหตุผลร่วมกัน [2021] (Arxiv)
- BERTese: เรียนรู้การสื่อสารกับ BERT [2021] (Acl)
ประเมินและปรับปรุงโมเดลภาษา :
- โมเดลภาษาขนาดใหญ่มีแนวโน้มที่จะถูกรบกวนจากบริบทที่ไม่เกี่ยวข้อง [2023] (Arxiv)
- การรวบรวมข้อมูลฐานความรู้ภายในของแบบจำลองภาษา [2023] (Arxiv) - วิธีการค้นพบพฤติกรรมของแบบจำลองภาษา: การประเมินการเขียนแบบจำลอง [2022] (Arxiv) ลิงก์ต้นฉบับ
- ปรับเทียบก่อนใช้งาน: ปรับปรุงประสิทธิภาพการทำงานไม่กี่ช็อตของโมเดลภาษา [2021] (Arxiv) ลิงก์ต้นฉบับ
การประยุกต์ใช้โมเดลภาษา :
- เคล็ดลับในการจำแนกมส์ที่เป็นอันตรายต่อเนื่องหลายรูปแบบ [2023] (Arxiv) ลิงก์ต้นฉบับ
- แบบจำลองภาษาพร้อมท์สำหรับการสังเคราะห์การสนทนาทางสังคม [2023] (Arxiv) ลิงก์ต้นฉบับ
- พร้อมท์การรับรู้สามัญสำนึกสำหรับการสร้างการสนทนาอย่างเอาใจใส่ที่มีการควบคุม [2023] (Arxiv) ลิงก์ต้นฉบับ
- โมเดลภาษาที่ได้รับความช่วยเหลือจากโปรแกรม [2023] (Arxiv) ลิงก์ต้นฉบับ
- การเขียนพร้อมท์ทางกฎหมายสำหรับการทำนายคำพิพากษาทางกฎหมายหลายภาษา [2023] (Arxiv) ลิงก์ต้นฉบับ
- การวิจัยเกี่ยวกับวิศวกรรมที่รวดเร็วสำหรับการแก้ปัญหา CS1 โดยใช้ภาษาธรรมชาติ [2022] (Arxiv) ลิงก์ต้นฉบับ
- การสร้างพล็อตโดยใช้แบบจำลองภาษาที่ผ่านการฝึกอบรมมาแล้ว [2022] (Acl) ลิงก์ต้นฉบับ
- พร้อมท์อัตโนมัติ: การใช้พรอมต์ที่สร้างขึ้นโดยอัตโนมัติเพื่อดึงความรู้จากโมเดลภาษา [2020] (Arxiv) ลิงก์ต้นฉบับ
ตัวอย่างการตรวจจับภัยคุกคามและมาตรการรับมือ :
- ปัญญาประดิษฐ์ตามรัฐธรรมนูญ: ไม่เป็นอันตรายผ่าน AI Feedback [2022] (Arxiv) ลิงก์ต้นฉบับ
- เพิกเฉยต่อเคล็ดลับก่อนหน้า: เทคนิคการโจมตีสำหรับโมเดลภาษา [2022] (Arxiv) ลิงก์ต้นฉบับ
- ข้อความที่สร้างโดยเครื่องจักร: การสำรวจแบบจำลองภัยคุกคามและวิธีการตรวจจับอย่างครอบคลุม [2022] (Arxiv) ลิงก์ต้นฉบับ
- การประเมินความอ่อนไหวของแบบจำลองภาษาที่ได้รับการฝึกอบรมล่วงหน้าผ่านตัวอย่างฝ่ายตรงข้ามที่จัดทำขึ้นด้วยมือ [2022] (Arxiv) ลิงก์ต้นฉบับ
- การตรวจจับความเป็นพิษโดยใช้คำแนะนำที่สร้างขึ้น [2022] (Arxiv) ลิงก์ต้นฉบับ - เราจะรู้ได้อย่างไรว่าโมเดลภาษารู้อะไร? [2020] (มิตร)
การเรียนรู้ไม่กี่ครั้งและการเพิ่มประสิทธิภาพการทำงาน :
- Promptagator: การดึงข้อมูลหนาแน่นเพียงไม่กี่ช็อตจาก 8 ตัวอย่าง [2022] (Arxiv)
- Few-Shot prompts สำหรับความไม่น่าเชื่อถือในการตีความในการให้เหตุผลเชิงข้อความ [2022] (Arxiv)
- ทำให้โมเดลภาษาที่ได้รับการฝึกล่วงหน้าดีขึ้นสำหรับผู้เรียนเพียงไม่กี่คน [2021] (Acl)
- โมเดลภาษาเป็นผู้เรียนเพียงไม่กี่คน [2020] (Arxiv)
การสร้างข้อความเป็นรูปภาพ :
- การจำแนกประเภทตัวแก้ไขคำใบ้สำหรับการสร้างข้อความเป็นรูปภาพ [2022] (Arxiv)
- แนวทางการออกแบบสำหรับโมเดลการสร้างข้อความเป็นรูปภาพทางวิศวกรรมที่รวดเร็ว [2021] (Arxiv)
- การสังเคราะห์ภาพความละเอียดสูงโดยใช้แบบจำลองการแพร่กระจายแฝง [2021] (Arxiv)
- DALL·E: การสร้างภาพจากข้อความ [2021] (Arxiv)
ข้อความเป็นเพลง/การสร้างเสียง :
- MusicLM: การสร้างเพลงจากข้อความ [2023] (Arxiv)
- ERNIE-Music: การสร้างเพลงจากข้อความเป็นคลื่นโดยใช้แบบจำลองการแพร่กระจาย [2023] (Arxiv)
- Noise2Music: การสร้างเพลงแบบปรับข้อความโดยใช้โมเดลการแพร่กระจาย (2023) (Arxiv)
- AudioLM: วิธีสร้างเสียงตามการสร้างแบบจำลองภาษา [2023] (Arxiv)
- Make-An-Audio: การสร้างข้อความเป็นเสียงโดยใช้โมเดลการแพร่กระจายคิวที่ปรับปรุงแล้ว [2023] (Arxiv)
การสร้างข้อความเป็นวิดีโอ :
- Dreamix: โมเดลการแพร่กระจายวิดีโอสำหรับโปรแกรมตัดต่อวิดีโอสากล [2023] (Arxiv) - การปรับแต่งวิดีโอ: การปรับแต่งโมเดลการกระจายภาพเพียงครั้งเดียวสำหรับการสร้างข้อความเป็นวิดีโอ [2022] (Arxiv)
- เสียงรบกวนจากดนตรี: การสร้างเพลงแบบมีเงื่อนไขตามข้อความตามแบบจำลองการแพร่กระจาย [2023] (Arxiv)
- เสียง LM: วิธีการสร้างแบบจำลองภาษาของเสียง [2023] (Arxiv)
ภาพรวม :
- นักบินนักบินและ Codex: อุณหภูมิร้อน ลมเย็น หรือมนต์ดำ [2022] (Arxiv)
เครื่องมือและรหัส
-
ชื่อ | อธิบาย | ลิงค์ |
---|
ดัชนีจีพีที | GPT Index เป็นโครงการที่ประกอบด้วยชุดโครงสร้างข้อมูลที่ออกแบบมาเพื่อทำให้การทำงานกับฐานความรู้ภายนอกขนาดใหญ่ด้วย LLM ง่ายขึ้น | [Github] |
แจ้ง | ใช้ LLM เพื่อแก้ไขปัญหา NLP และใช้ Promptify เพื่อสร้างพรอมต์งาน NLP ที่แตกต่างกันได้อย่างง่ายดายสำหรับโมเดลกำเนิดยอดนิยม เช่น GPT และ PaLM | [Github] |
แจ้งดีกว่าครับ | ทดสอบชุดการทดสอบก่อนที่จะพุช LLM prompts ไปสู่การใช้งานจริง | [Github] |
องค์ประกอบเชิงโต้ตอบ Explorerx | ICE เป็นตัวสร้างภาพการติดตามสำหรับไลบรารี Python และโปรแกรมโมเดลภาษา | [Github] |
แลงเชนซ์ | สร้างแอปพลิเคชันโดยใช้ LLM ร่วมกัน | [Github] |
เปิดพร้อมท์ | กรอบงานโอเพ่นซอร์สเพื่อการเรียนรู้ที่รวดเร็ว | [Github] |
พรอมต์เครื่องยนต์ | พื้นที่เก็บข้อมูลนี้มีไลบรารีของยูทิลิตี้ NPM สำหรับการสร้างและบำรุงรักษาพร้อมท์โมเดลภาษาขนาดใหญ่ (LLM) | [Github] |
แจ้ง AI | สถานที่ทำงานขั้นสูงสำหรับ GPT-3 | [Github] |
แหล่งที่มาพร้อมท์ | PromptSource เป็นชุดเครื่องมือสำหรับการสร้าง แบ่งปัน และใช้ข้อความแจ้งที่เป็นภาษาธรรมชาติ | [Github] |
แหล่งความคิด | กรอบการทำงานของเครื่องจักรเพื่อคิดเกี่ยวกับวิทยาศาสตร์ | [Github] |
เอปี้
ชื่อ | อธิบาย | URL | ชำระเงินหรือโอเพ่นซอร์ส |
---|
OpenAI | GPT-n สำหรับงานภาษาธรรมชาติ Codex สำหรับการแปลภาษาธรรมชาติเป็นโค้ด และ DALL·E สำหรับการสร้างและแก้ไขภาพดิบ | [โอเพ่นเอไอ] | จ่าย |
เชื่อมโยงกันAI | Cohere ให้การเข้าถึงโมเดลภาษาขนาดใหญ่ขั้นสูงและเครื่องมือประมวลผลภาษาธรรมชาติผ่าน API | [เชื่อมโยง AI] | จ่าย |
มานุษยวิทยา | เร็วๆ นี้ | [มานุษยวิทยา] | จ่าย |
FLAN-T5XXL | เร็วๆ นี้ | [ฮักกินเฟซ] | โอเพ่นซอร์ส |
ชุดข้อมูล
-
ชื่อ | อธิบาย | URL |
---|
P3 (แหล่งรวมการแจ้งเตือนสาธารณะ) | P3 (Public Pool of Prompts) คือชุดของชุดข้อมูลภาษาอังกฤษที่ได้รับแจ้งซึ่งมีงาน NLP ต่างๆ | [กอดใบหน้า] |
พร้อมท์ ChatGPT ที่ยอดเยี่ยม | พื้นที่เก็บข้อมูลนี้มีการดูแลจัดการพร้อมท์ ChatGPT เพื่อการใช้งาน ChatGPT ที่ดียิ่งขึ้น | [Github] |
-
ชื่อ | อธิบาย | ลิงค์ |
---|
ChatGPT | ChatGPT | [โอเพ่นเอไอ] |
โคเด็กซ์ | โมเดล Codex เป็นรุ่นต่อจากรุ่น GPT-3 ของเรา และสามารถเข้าใจและสร้างโค้ดได้ ข้อมูลการฝึกอบรมประกอบด้วยภาษาธรรมชาติและโค้ดสาธารณะหลายพันบรรทัดบน GitHub | [Github] |
บลูม | BigScience แบบจำลองภาษาหลายภาษาแบบเปิดขนาดใหญ่ที่เข้าถึงได้หลายภาษา | [กอดใบหน้า] |
เฟซบุ๊ก แอลแอลเอ็ม | OPT-175B เป็นโมเดลเทียบเท่า GPT-3 ที่ได้รับการฝึก Meta เป็นโมเดลภาษาที่ได้รับการฝึกฝนที่ใหญ่ที่สุดในปัจจุบัน โดยมีพารามิเตอร์ถึง 175 พันล้านพารามิเตอร์ | [อัลปา] |
GPT-นีโอเอ็กซ์ | GPT-NeoX-20B ซึ่งเป็นโมเดลภาษาถอยหลังอัตโนมัติพารามิเตอร์ 2 หมื่นล้านพารามิเตอร์ที่ผ่านการฝึกอบรม | [กอดใบหน้า] |
FLAN-T5XXL | Flan-T5 เป็นโมเดลที่ได้รับการปรับแต่งคำสั่ง ซึ่งหมายความว่าจะไม่มีพฤติกรรมการยิงเป็นศูนย์ เมื่อได้รับคำสั่งเป็นส่วนหนึ่งของสัญญาณ | [กอดเฟซ/กูเกิล] |
XLM-RoBERTa-XL | รุ่น XLM-RoBERTa-XL ได้รับการฝึกอบรมล่วงหน้าเกี่ยวกับข้อมูล CommonCrawl ที่กรองแล้วขนาด 2.5TB ซึ่งมี 100 ภาษา | [กอดใบหน้า] |
GPT-เจ | มันเป็นโมเดลภาษาเชิงสาเหตุคล้ายกับ GPT-2 ที่ได้รับการฝึกในชุดข้อมูล Pile | [กอดใบหน้า] |
|. การเขียนพร้อมท์ |. ชุดข้อมูลขนาดใหญ่ที่มีการเขียนเรื่องราวและคำแนะนำในการเขียนจากฟอรัมออนไลน์ (reddit) |. Midjourney Prompts | . rlhf-pytorch | การใช้งาน RLHF (การเรียนรู้แบบเสริมแรงด้วยผลตอบรับของมนุษย์) ในสถาปัตยกรรม PaLM โดยพื้นฐานแล้ว ChatGPT แต่ด้วยการเพิ่ม PaLM | . [ Github] | . |. [Github] |. LaMDA-rlhf-pytorch |. การใช้ PyTorch แบบโอเพ่นซอร์สของ Google เพิ่ม RLHF ที่คล้ายกับ ChatGPT | . [Github] |. RLHF |. การดำเนินการเรียนรู้แบบสองภาษา |
เครื่องตรวจจับเนื้อหา AI
-
ชื่อ | อธิบาย | URL |
---|
ตัวแยกประเภทข้อความ AI | AI Text Classifier เป็นโมเดล GPT ที่ได้รับการปรับแต่งอย่างละเอียด ซึ่งสามารถคาดการณ์ความเป็นไปได้ที่ข้อความชิ้นหนึ่งจะถูกสร้างขึ้นโดย AI จากแหล่งต่างๆ เช่น ChatGPT | [โอเพ่นเอไอ] |
เครื่องตรวจจับเอาต์พุต GPT-2 | นี่คือการสาธิตออนไลน์ของ RoBERTa ที่นำไปใช้งานโดยอิงจาก ?/Transformers | [กอดใบหน้า] |
เครื่องตรวจจับ Openai | ตัวแยกประเภท AI สำหรับระบุข้อความที่เขียนโดย AI (ตัวตัด OpenAI Detector Python) | [GitHub] |
บทช่วยสอน
บทนำสู่โครงการพร้อมท์
- พร้อมท์วิศวกรรม 101 - บทนำและแหล่งข้อมูล
- พร้อมวิศวกรรม 101". - คู่มือวิศวกรรมพร้อมท์ โดย สุดาไล ราชกุมาร
คู่มือสำหรับผู้เริ่มต้นใช้งานโมเดลภาษาเชิงสร้างสรรค์
- คู่มือสำหรับผู้เริ่มต้นใช้งานโมเดลภาษาเชิงสร้างสรรค์ - LaMBDA Guide
- AI เชิงสร้างสรรค์บนพื้นฐานของ Cohere: ตอนที่ 1 - เคล็ดลับเกี่ยวกับโมเดล
แนวทางปฏิบัติที่ดีที่สุดสำหรับวิศวกรรมพร้อมท์
- แนวทางปฏิบัติที่ดีที่สุดสำหรับวิศวกรรมพร้อมท์ OpenAI API
- วิธีการเขียนคำแนะนำที่ดี
คู่มือโครงการพร้อมท์ฉบับสมบูรณ์
- การแนะนำโครงการ Prompt แบบจำลองภาษาขนาดใหญ่โดยสมบูรณ์
- คู่มือวิศวกรรมพร้อมท์: วิธีการออกแบบพร้อมท์ที่ดีที่สุด
แจ้งด้านเทคนิคของวิศวกรรม
- หลักการสำคัญสามประการของวิศวกรรมพร้อมท์ GPT-3
- เฟรมเวิร์กทั่วไปสำหรับโปรเจ็กต์ ChatGPT Prompt
- วิธีการเขียนโปรแกรมพร้อมท์
แจ้งทรัพยากรโครงการ
- เคล็ดลับ ChatGPT ที่ยอดเยี่ยม
- พร้อมท์การแพร่กระจายที่เสถียรที่สุด 100+
- หนังสือพร้อมท์ DALLE
- ตำราอาหาร OpenAI
- โครงการ Prompt ของ Microsoft
วิดีโอ
?- เวอร์ชันขั้นสูงของโครงการ ChatGPT Prompt
- ChatGPT: 5 เคล็ดลับทางวิศวกรรมที่รวดเร็วสำหรับผู้เริ่มต้น
- CMU การประมวลผลภาษาธรรมชาติขั้นสูง 2565: การเตือน
- พร้อมวิศวกรรม – อาชีพใหม่?
- คู่มือ ChatGPT: ใช้คำสั่งที่ดีกว่าเพื่อเพิ่มผลลัพธ์ของคุณ 10 เท่า
- แบบจำลองภาษาและวิศวกรรมพร้อมท์: การสำรวจวิธีการกระตุ้นอย่างเป็นระบบใน NLP
- Prompt Engineering 101: เติมข้อความอัตโนมัติ, ตัวอย่างเป็นศูนย์, ตัวอย่างเดียวและตัวอย่างไม่กี่ตัวอย่าง
ชุมชน
-
- ความไม่ลงรอยกันของ OpenAI
- PromptsLab ไม่ลงรอยกัน
- เรียนรู้พร้อมท์
- r/ChatGPT ไม่ลงรอยกัน
- ความไม่ลงรอยกันของ MidJourney
วิธีการมีส่วนร่วม
เรายินดีต้อนรับการมีส่วนร่วมในรายการนี้! นั่นคือเหตุผลหลักที่ฉันสร้างมันขึ้นมา - เพื่อสนับสนุนการมีส่วนร่วมและสนับสนุนให้ผู้คนสมัครรับการเปลี่ยนแปลงเพื่อติดตามข่าวสารล่าสุดเกี่ยวกับการพัฒนาใหม่ๆ ที่น่าตื่นเต้นในด้านโมเดลภาษาขนาดใหญ่ (LLM) และวิศวกรรมพร้อมท์
ก่อนที่จะมีส่วนร่วม โปรดสละเวลาสักครู่เพื่อทบทวนหลักเกณฑ์การสนับสนุนของเรา หลักเกณฑ์เหล่านี้จะช่วยให้แน่ใจว่าการมีส่วนร่วมของคุณสอดคล้องกับเป้าหมายของเรา และเป็นไปตามมาตรฐานคุณภาพและความเกี่ยวข้องของเรา ขอขอบคุณที่สนใจร่วมสนับสนุนโครงการนี้!
แหล่งที่มาของภาพ: docs.cohere.ai