คอลเลกชันเอกสารและแหล่งข้อมูลที่รวบรวมไว้เกี่ยวกับวิธีปลดล็อกความสามารถในการใช้เหตุผลของ LLM และ MLLM
ตรวจสอบ Awesome-Controllable-Diffusion ด้วย
ความสนใจของโมเดลภาษาขนาดใหญ่: แบบสำรวจ [รหัส]
ซีฟาน เจิ้ง, เย่จ้าวหุย หวัง, หยู่ซิน ฮวง, ซือเฉา ซ่ง, ป๋อ ถัง, เฟยหยู่สง, จือหยู ลี่ เตรียมพิมพ์'24
ความสอดคล้องภายในและการตอบรับตนเองในแบบจำลองภาษาขนาดใหญ่: แบบสำรวจ [รหัส]
ซุน เหลียง, ซือเฉา ซ่ง, ซีฟาน เจิ้ง, ฮั่นหยู หวาง, ชิงเฉิน หยู, ซุนไค ลี่, หรงฮัวหลี่, เฟยหยูสยง, จิหยูหลี่ เตรียมพิมพ์'24
การแก้ปริศนาโดยใช้เหตุผลของแบบจำลองภาษาขนาดใหญ่: แบบสำรวจ [รหัส]
พานาจิโอติส จาดิเคียโรกลู, มาเรีย ลิมเปไรอู, จอร์จอส ฟิลานเดรียนอส, จอร์จอส สตามู เตรียมพิมพ์'24
แบบจำลองภาษาขนาดใหญ่สำหรับการให้เหตุผลทางคณิตศาสตร์: ความก้าวหน้าและความท้าทาย
เจนิซ อาห์น, ริชู เวอร์มา, เรนเซ ลู, ตี้ หลิว, รุย จาง, เหวินเผิง หยิน เอซีแอล'24
สู่การใช้เหตุผลในรูปแบบภาษาขนาดใหญ่: แบบสำรวจ [รหัส]
เจีย ฮวง, เควิน เฉิน-ฉวน ชาง ผลการวิจัย ACL'23
การใช้เหตุผลด้วยการกระตุ้นแบบจำลองภาษา: แบบสำรวจ [รหัส]
ซัวเฟย เฉียว, อี้ซิน โอว, จางหนิงหยู่, เซียง เฉิน, หยุนจือ เหยา, ชูหมินเติ้ง, ฉวนฉี ตัน, เฟย ฮวง, ฮวาจุน เฉิน เอซีแอล'23
↑ กลับไปด้านบน ↑
จาก Medprompt ถึง o1: การสำรวจกลยุทธ์รันไทม์สำหรับปัญหาความท้าทายทางการแพทย์และอื่นๆ
ฮาร์ชา โนริ, นาโอโตะ อูซูยามะ, นิโคลัส คิง, สก็อตต์ เมเยอร์ แมคคินนีย์, ซาเวียร์ เฟอร์นันเดส, เซิง จาง, เอริก ฮอร์วิทซ์ เตรียมพิมพ์'24
ไปยัง CoT หรือไม่ไปยัง CoT? ห่วงโซ่แห่งความคิดช่วยในเรื่องคณิตศาสตร์และการให้เหตุผลเชิงสัญลักษณ์เป็นหลัก
เซน สปราก, ฟางคอง หยิน, ฮวน ดิเอโก้ โรดริเกซ, ตงเว่ย เจียง, มันยา วัดฮวา, ปราซาน ซิงฮาล, ซินหยู จ้าว, ซี เย่, ไคล์ มาโฮวาลด์, เกร็ก ดูเรตต์ เตรียมพิมพ์'24
LLM สามารถสร้างแนวคิดการวิจัยนวนิยายได้หรือไม่? การศึกษาในมนุษย์ขนาดใหญ่กับนักวิจัย NLP กว่า 100 คน
เฉิงเหล่ยสี, ดีอีหยาง, ทัตสึโนริ ฮาชิโมโตะ เตรียมพิมพ์'24
มองเข้าไปในอคติของโทเค็น: โมเดลภาษาขนาดใหญ่ยังไม่ใช่ผู้ให้เหตุผลที่แท้จริง [รหัส]
Bowen Jiang, Yangxinyu Xie, Zhuoqun Hao, Xiaomeng Wang, Tanwi Mallick, Weijie J. Su, Camillo J. Taylor, Dan Roth EMNLP'24
หัวหน้าฝ่ายวนซ้ำ: การศึกษากลไกของห่วงโซ่แห่งความคิด
วิเวียน คาบานเนส, ชาร์ลส์ อาร์นัล, วัสซิม บูอาซิซ, อลิซ หยาง, ฟรองซัวส์ ชาร์ตัน, จูเลีย เคมเป้ ประสาทไอพีเอส'24
โมเดลภาษาขนาดใหญ่ทำการใช้เหตุผลแบบ Multi-Hop อยู่หรือไม่?
โซฮี ยัง, เอเลนา กริบอฟสกายา, นอร่า คาสเนอร์, มอร์ เกวา, เซบาสเตียน รีเดล เอซีแอล'24
ลำดับสถานที่ตั้งมีความสำคัญในการให้เหตุผลด้วยแบบจำลองภาษาขนาดใหญ่
ซินหยุน เฉิน, ไรอัน เอ. ชิ, เสวี่ยจือ หวาง, เดนนี่ โจว ไอซีเอ็มแอล'24
ผลกระทบของความยาวขั้นตอนการใช้เหตุผลต่อแบบจำลองภาษาขนาดใหญ่
หมิงหยูจิน, ฉินไคยวี่, ตงชู, ไห่เอี้ยนจ้าว, เหวินเยว่ฮัว, หยานต้าเหมิง, จางหยงเฟิง, เหมิงหนานตู้ ผลการวิจัย ACL'24
โมเดลภาษาขนาดใหญ่ยังไม่สามารถให้เหตุผลในการแก้ไขตนเองได้
เจีย ฮวง, ซินหยุน เฉิน, สวารุป มิชรา, หวยซิ่ว สตีเวน เจิ้ง, อดัมส์ เว่ย หยู, ซินหยิง ซ่ง, เดนนี่ โจว ICLR'24
ข้อมูลโค้ดช่วยในการให้เหตุผลของ LLM ในขั้นตอนการฝึกอบรมใด
หยิงเว่ย หม่า, เยว่ หลิว, เยว่ หยู, หยวนเหลียง จาง, หยูเจียง, ฉางเจียน หวาง, ซานชาน ลี ICLR'24
การวัดความซื่อสัตย์ในการให้เหตุผลแบบลูกโซ่แห่งความคิด
ทาเมรา แลนแฮม, แอนนา เฉิน, อันช ราดากฤษนัน, เบอนัวต์ สไตเนอร์, คาร์สัน เดนิสัน, แดนนี่ เฮอร์นันเดซ, ดัสติน ลี, เอซิน เดอร์มุส, อีวาน ฮูบินเงอร์, แจ็คสัน เคอร์เนียน, คามิเลีย ลูโกชิวเต, คารินา เหงียน, นิวตัน เฉิง, นิโคลัส โจเซฟ, นิโคลัส ไชเฟอร์, โอลิเวอร์ เราช์, โรบิน ลาร์สัน , แซม แมคแคนดิช, ซันดิปัน คุนดู, ซอราฟ คาดาวาธ, แชนนอน ยาง, โธมัส เฮนิแกน, ทิโมธี แม็กซ์เวลล์, ทิโมธี เทลลีน-ลอว์ตัน, ทริสตัน ฮูม, แซค แฮตฟิลด์-ดอดส์, จาเรด แคปแลน, แจน เบราเนอร์, ซามูเอล อาร์. โบว์แมน, อีธาน เปเรซ เตรียมพิมพ์'23
ศรัทธาและโชคชะตา: ขีดจำกัดของ Transformers ในการจัดองค์ประกอบ
นูฮา ซิริ, ซีหมิง ลู่, เมลานี สคลาร์, เซียง ลอร์เรน ลี, หลี่เว่ย เจียง, บิล ยูเฉิน ลิน, ปีเตอร์ เวสต์, จันทรา ภากาวาตูลา, โรแนน เลอ บราส, เจน่า ดี. ฮวาง, โซอุมยา ซานยาล, ฌอน เวลเลค, เซียง เร็น, อัลลีสัน เอตติงเกอร์, ไซด ฮาร์เชาวี, เยจิน ชอย. เนอร์ไอพีเอส'23
โมเดลภาษาไม่ได้พูดในสิ่งที่พวกเขาคิดเสมอไป: คำอธิบายที่ไม่ซื่อสัตย์ในการกระตุ้นความคิดแบบลูกโซ่ [รหัส]
ไมล์ส เทอร์พิน, จูเลียน ไมเคิล, อีธาน เปเรซ, ซามูเอล อาร์. โบว์แมน เนอร์ไอพีเอส'23
การประเมิน ChatGPT แบบมัลติทาสก์ หลายภาษา ต่อเนื่องหลายรูปแบบในด้านการใช้เหตุผล อาการประสาทหลอน และการโต้ตอบ
เยจิน ปัง, ซามูเอล คาฮยาวิจายา, นายอน ลี, เหวินเหลียง ได, ตัน ซู, ไบรอัน วิลลี่, โฮลี โลเวเนีย, ซีเว่ย จี, เถี่ยเจิง หยู, วิลลี่ ชุง, เกวียต วี. โด, หยาน ซู, ปาสเกล ฟุง เอเอซีแอล'23
โมเดลภาษาขนาดใหญ่อาจถูกรบกวนได้ง่ายจากบริบทที่ไม่เกี่ยวข้อง
เฟรดา ชิ, ซินหยุน เฉิน, คานิชกา มิสรา, นาธาน สเกลส์, เดวิด โดฮาน, เอ็ด ชี, นาธานาเอล แชร์ลี, เดนนี่ โจว ไอซีเอ็มแอล'23
ในความคิดที่สอง อย่าคิดทีละขั้นตอน! อคติและความเป็นพิษในการให้เหตุผลแบบ Zero-Shot
โอมาร์ เชค, หงซิน จาง, วิลเลียม เฮลด์, ไมเคิล เบิร์นสไตน์, ดีอี หยาง เอซีแอล'23
สู่การทำความเข้าใจการกระตุ้นเตือนแบบลูกโซ่แห่งความคิด: การศึกษาเชิงประจักษ์ถึงสิ่งที่สำคัญ [รหัส]
โบชี หวาง, เซวอน มิน, เซียง เติ้ง, เจียหมิง เซิน, โหยว วู, ลุค เซตเทิลมอยเออร์, ฮวน ซุน เอซีแอล'23
งานใหญ่ที่ท้าทายและห่วงโซ่แห่งความคิดจะแก้ปัญหาได้หรือไม่ [รหัส]
มิรัค ซุซกุน, นาธาน สเกลส์, นาธานาเอล เชอร์ลี, เซบาสเตียน เกห์มานน์, ยี เทย์, ฮยอง วอน ชุง, อาคังชา เชาเดรี, ก๊วก วี. เลอ, เอ็ด เอช. ชิ, เดนนี่ โจว, เจสัน เหว่ย ผลการวิจัย ACL'23
ความสามารถฉุกเฉินของโมเดลภาษาขนาดใหญ่ [บล็อก]
เจสัน เว่ย, ยี เทย์, ริชิ บอมมาซานี, โคลิน ราฟเฟล, บาร์เร็ต ซอฟ, เซบาสเตียน บอร์กโดด์, ดานี โยคะทามา, มาร์เทน บอสมา, เดนนี่ โจว, โดนัลด์ เมตซ์เลอร์, เอ็ด เอช. ชิ, ทัตสึโนริ ฮาชิโมโตะ, โอเรียล วินยาลส์, เพอร์ซี เหลียง, เจฟฟ์ ดีน, วิลเลียม เฟดัส ทีเอ็มแอลอาร์'22
โมเดลภาษาสามารถเรียนรู้จากคำอธิบายในบริบทได้หรือไม่
Andrew K. Lampinen, Ishita Dasgupta, Stephanie CY Chan, Kory Matthewson, Michael Henry Tessler, Antonia Creswell, James L. McClelland, Jane X. Wang, Felix Hill EMNLP'22
↑ กลับไปด้านบน ↑
การฝึกอบรมแบบจำลองภาษาเพื่อแก้ไขตนเองผ่านการเรียนรู้แบบเสริมกำลัง
อาไวรัล คูมาร์, วินเซนต์ จวง, ริชาร์บ์ อาการ์วาล, ยี ซู, เจดี โค-เรเยส, อาวี ซิงห์, เคท บอมลี, ชาริก อิคบาล, โคลตัน บิชอป, รีเบคก้า โรเอลอฟส์, เล่ย เอ็ม. จาง, เคย์ แม็คคินนีย์, ดิชา ชริวาสตาวา, คอสมิน ปาดูรารู, จอร์จ ทัคเกอร์, โดอินา พรีคัพ, เฟริยาล เบห์บาฮานี, อเล็กซานดรา เฟาสท์ เตรียมพิมพ์'24
โอเพ่นเอไอ o1.
เปิดทีมเอไอ รายงานทางเทคนิค'24
เอเจนต์ถาม: การใช้เหตุผลขั้นสูงและการเรียนรู้สำหรับเอเจนต์ AI อัตโนมัติ
ปรานาฟ ปุตต้า, เอ็ดมันด์ มิลส์, นามาน การ์ก, ซูมีต มอตวานี, เชลซี ฟินน์, ดิวิยันช์ การ์ก, ราฟาเอล ราไฟลอฟ เตรียมพิมพ์'24
DotaMath: การสลายตัวของความคิดด้วยความช่วยเหลือด้านโค้ดและการแก้ไขตนเองสำหรับการให้เหตุผลทางคณิตศาสตร์ [รหัส]
เฉิงเผิง ลี, กวนถิง ตง, หมิงเฟิง เสวี่ย, รูเผิง, เซียง หวาง, ต้าอี้เหิง หลิว เตรียมพิมพ์'24
LLM-ARC: การปรับปรุง LLM ด้วยนักวิจารณ์การใช้เหตุผลอัตโนมัติ
อาทิตยา กัลยันปูร์, ไกรลาช ซาราวากุมาร์, วิคเตอร์ บาร์เรส, เจนนิเฟอร์ ชู-แคร์โรลล์, เดวิด เมลวิลล์, เดวิด เฟอร์รุชชี เตรียมพิมพ์'24
ถาม*: การปรับปรุงการใช้เหตุผลแบบหลายขั้นตอนสำหรับ LLM ด้วยการวางแผนอย่างรอบคอบ
Chaojie Wang, Yanchen Deng, Zhiyi Lv, Shuicheng Yan, An Bo เตรียมพิมพ์'24
บัฟเฟอร์ของความคิด: การใช้เหตุผลเสริมทางความคิดด้วยแบบจำลองภาษาขนาดใหญ่ [รหัส]
Ling Yang, Zhaochen Yu, Tianjun Zhang, Shiyi Cao, Minkai Xu, Wentao Zhang, Joseph E. Gonzalez, Bin Cui เตรียมพิมพ์'24
สู่การพัฒนาตนเองของ LLM ผ่านจินตนาการ การค้นหา และการวิจารณ์
เย่เทียน, เป่าหลินเผิง, ซ่งหลินเฟิง, ลี่เฟิงจิน, เตียนหยู่, ไห่เทาหมี่, ตงหยู เตรียมพิมพ์'24
เกมภาษาฝ่ายตรงข้ามที่เล่นด้วยตนเองช่วยเพิ่มการใช้เหตุผล LLM
เผิงหยู่ เฉิง, เทียนห่าว หู, ฮั่น ซู, จางจื้อซง, หย่งไต้, เล่ยฮั่น, หนานตู้ เตรียมพิมพ์'24
การประเมินการใช้เหตุผลทางคณิตศาสตร์ที่เกินกว่าความถูกต้อง
สือเจี๋ยเซี่ย, หลี่เสวี่ยเฟิง, หลิวอี้ซิน, ตงซวงวู, เผิงเฟยหลิว เตรียมพิมพ์'24
การพัฒนาผู้ให้เหตุผลทั่วไปของ LLM ขั้นสูงด้วยแผนผังการตั้งค่า
ลี่ฟาน หยวน, กานชู ชุย, ฮั่นปิน หวัง, หนิงติง, ซิงเหยา หวาง, เจียเติ้ง, ป๋อจี๋ชาน, ฮุ่ยหมิน เฉิน, รัวปิง ซี, หยานไค หลิน, เจิ้งห่าว หลิว, โบเว่น โจว, ห่าวเผิง, จือหยวน หลิว, เหมาซอง ซุน เตรียมพิมพ์'24
LLM3: การวางแผนงานและการเคลื่อนไหวตามแบบจำลองภาษาขนาดใหญ่พร้อมการให้เหตุผลในการเคลื่อนไหวล้มเหลว [รหัส]
ซู่หวาง, มูจื่อฮั่น, จื่อหยวนเจียว, เจ๋อหยูจาง, หยิงเหนียนหวู่, ซ่งชุนจู, หางซินหลิว ไอรอส'24
Quiet-STAR: โมเดลภาษาสามารถสอนตัวเองให้คิดก่อนพูดได้
เอริก เซลิคแมน, จอร์จ ฮาริก, ยี่เจีย เชา, วรุณจายาสิริ, นิค ฮาเบอร์, โนอาห์ ดี. กู๊ดแมน เตรียมพิมพ์'24
GLoRe: เมื่อใด ที่ไหน และวิธีการปรับปรุงการใช้เหตุผล LLM ผ่านการปรับแต่งระดับโลกและระดับท้องถิ่น
อเล็กซ์ ฮาฟริลลา, ชาราธ ราพาร์ธี, คริสโตฟอรัส นาลมป์ปันติส, เจน ดวิเวดี-ยู, มักซิม จูราวินสกี้, เอริค ฮัมโบร, โรเบอร์ตา เรลโน ไอซีเอ็มแอล'24
การใช้เหตุผลแบบลูกโซ่แห่งความคิดโดยไม่ต้องแจ้งให้ทราบ
เสวี่ยจือ หวาง, เดนนี่ โจว. เตรียมพิมพ์'24
V-STAR: ผู้ตรวจสอบการฝึกอบรมสำหรับผู้ให้เหตุผลด้วยตนเอง
อาเรียน ฮอสไซนี, ซิงตี้ หยวน, นิโคเลย์ มัลกิน, อารอน คูร์วิลล์, อเลสซานโดร ซอร์โดนี, ริชาร์บห์ อาการ์วาล เตรียมพิมพ์'24
InternLM-Math: แบบจำลองภาษาคณิตศาสตร์แบบเปิดสู่การใช้เหตุผลที่ตรวจสอบได้
ฮวยหยวน หยิง, ซั่ว จาง, ลินหยาง ลี, เจ้อเจี้ยน โจว, หยุนฟาน เชา, จ้าวเย่ เฟย, อี้ชวน หม่า, เจียเว่ย หง, กุยคุน หลิว, ซียี่ หวัง, หยูตง หวัง, ซีเจียน วู, ซวยปิน ลี, เฟิงเจ้อ โจว, หงเว่ย หลิว, ซงหยาง จาง, เหวินเว่ย จาง , Hang Yan, Xipeng Qiu, Jiayu Wang, Kai Chen, Dahua Lin เตรียมพิมพ์'24
การค้นพบตนเอง: แบบจำลองภาษาขนาดใหญ่ โครงสร้างการใช้เหตุผลด้วยตนเอง
Pei Zhou, Jay Pujara, Xiang Ren, Xinyun Chen, Heng-Tze Cheng, Quoc V. Le, Ed H. Chi, Denny Zhou, Swaroop Mishra, Huaixiu Steven Zheng เตรียมพิมพ์'24
DeepSeekMath: ก้าวข้ามขีดจำกัดของการใช้เหตุผลทางคณิตศาสตร์ในโมเดลภาษาเปิด
Zhihong Shao, Peiyi Wang, Qihao Zhu, Runxin Xu, Junxiao Song, Xiao Bi, Haowei Zhang, Mingchuan Zhang, YK Li, Y. Wu, Daya Guo เตรียมพิมพ์'24
การใช้เหตุผลระดับ K พร้อมโมเดลภาษาขนาดใหญ่
หยาตง จาง, เฉากวง เหมา, เทาเกอ, ซุน หวาง, เอี้ยน เซี่ย, หม่าน หลาน, ฟู่ลู่ เหว่ย เตรียมพิมพ์'24
การใช้เครื่องมืออย่างมีประสิทธิภาพพร้อมการให้เหตุผลแบบลูกโซ่ของนามธรรม
ซิลิน เกา, เจน ดวิเวดี-ยู, ปิง หยู, เสี่ยวชิง เอลเลน ตัน, รามาคานธ์ ปาซูนูรู, โอลก้า โกลอฟเนวา, คูสตุฟ ซินฮา, อัสลี เซลิคิลมาซ, อองตวน บอสเซลุต, เทียนลู่ หวาง เตรียมพิมพ์'24
การสอนแบบจำลองภาษาเพื่อพัฒนาตนเองผ่านการสาธิตเชิงโต้ตอบ
เซียว หยู, เป่าหลิน เผิง, มิเชล แกลลีย์, เจียนเฟิง เกา, โจว หยู NAACL'24
การเพิ่มประสิทธิภาพการใช้เหตุผลแบบลูกโซ่แห่งความคิดแบบ Zero-Shot ในแบบจำลองภาษาขนาดใหญ่ผ่านลอจิก [รหัส]
ซูเฟิง จ้าว, หลี่เหมิงตี้, เหวินห่าว หลู, คอร์นีเลียส เวเบอร์, แจฮี ลี, คุน ชู, สเตฟาน เวิร์มเตอร์ โคลลิ่ง'24
การตรวจสอบแบบลูกโซ่ช่วยลดอาการประสาทหลอนในโมเดลภาษาขนาดใหญ่
เชห์ซาด ดูเลียวาลา, มอยตาบา โคเมลี่, จิง ซู, โรเบอร์ตา ไรเลนู, เซียน หลี่, อัสลี เซลิคิลมาซ, เจสัน เวสตัน ผลการวิจัย ACL'24
โครงกระดูกแห่งความคิด: โมเดลภาษาขนาดใหญ่สามารถถอดรหัสแบบขนานได้
เสวียเฟย หนิง, ซีหนาน หลิน, ซีซวน โจว, ฮวาจง หยาง, หยู หวาง ICLR'24
การสลายตัวของคำถามช่วยเพิ่มความซื่อสัตย์ของการให้เหตุผลตามแบบจำลอง [รหัส]
อันช์ ราธากฤษนัน, คารินา เหงียน, แอนนา เฉิน, แครอล เฉิน, คาร์สัน เดนิสัน, แดนนี่ เฮอร์นันเดซ, เอซิน เดอร์มุส, อีวาน ฮูบินเงอร์, แจ็คสัน เคอร์เนียน, คามิลเล ลูโกชิวเต, นิวตัน เฉิง, นิโคลัส โจเซฟ, นิโคลัส ชีฟเฟอร์, โอลิเวอร์ เราช์, แซม แมคแคนด์ลิช, เชียร์ เอล โชว์ก, ทาเมรา แลนแฮม, ทิม แม็กซ์เวลล์, เวนคาเตซา จันดราเซการัน, แซค แฮตฟิลด์-ดอดส์, จาเร็ด แคปแลน, แจน เบราเนอร์, ซามูเอล อาร์. โบว์แมน, อีธาน เปเรซ เตรียมพิมพ์'23
มาตรวจสอบกันทีละขั้นตอน
ฮันเตอร์ ไลท์แมน, วีเน็ต โคซาราจู, ยูรา เบอร์ดา, แฮร์รี เอ็ดเวิร์ดส์, โบเวน เบเกอร์, เท็ดดี้ ลี, ยาน ไลค์, จอห์น ชูลแมน, อิลยา ซัตสเคเวอร์, คาร์ล ค็อบบ์ ICLR'24
ผู้อ้างอิง: คำติชมการให้เหตุผลเกี่ยวกับการเป็นตัวแทนระดับกลาง [โครงการ] [รหัส]
เด๊บจิต ปอล, เมเต้ อิสมาอิลซาดา, แม็กซิเม่ เปย์ราร์ด, บีทริซ บอร์เกส, อองตวน บอสเซลุต, โรเบิร์ต เวสต์, บอย ฟัลติงส์ อีเอซีแอล'24
การแจ้งอย่างกระตือรือร้นด้วยห่วงโซ่แห่งความคิดสำหรับโมเดลภาษาขนาดใหญ่ [รหัส]
Shizhe Diao, Pengcheng Wang, หยง หลิน, ตง จาง เอซีแอล'24
แบบจำลองภาษาในฐานะผู้ให้เหตุผลเชิงอุปนัย
จงลิน หยาง, หลี่ ตง, ซินหยา ตู้, ห่าวเฉิง, เอริค แคมเบรีย, เสี่ยวตง หลิว, เจียนเฟิง เกา, ฟูรู เว่ย อีเอซีแอล'24
การส่งเสริมการใช้เหตุผล LLM: ก้าวข้ามขีดจำกัดของการเรียนรู้แบบไม่กี่ช็อตด้วยการเสริมการตัดแต่งกิ่งในบริบท
ซีเจี๋ย ฮวง, หลี่ ลีน่า จาง, กวาง-ติงเฉิง, เหมา หยาง เตรียมพิมพ์'23
Logic-LM: เสริมศักยภาพให้กับโมเดลภาษาขนาดใหญ่ด้วยตัวแก้ปัญหาเชิงสัญลักษณ์เพื่อการให้เหตุผลเชิงตรรกะที่ซื่อสัตย์ [รหัส]
เหลียงหมิง ปาน, อลอน อัลบาลัก, ซินยี่ หวาง, วิลเลียม หยาง หวาง ผลการวิจัยของ EMNLP'23
การเรียกความคิดซ้ำ: แนวทางแบ่งแยกและพิชิตการใช้เหตุผลหลายบริบทด้วยแบบจำลองภาษา [รหัส] [โปสเตอร์]
ซูชาน ลี, กันฮี คิม. ผลการวิจัย ACL'23
การใช้เหตุผลด้วยโมเดลภาษาคือการวางแผนด้วยโมเดลโลก
ซือโบ ห่าว, ยี่กู่, เฮาตี้หม่า, โจชัว เจียหัว หง, เจิ้น หวาง, เดซี่ เจ้อ หวาง, จื้อติง หู EMNLP'23
การใช้เหตุผลโดยนัยผ่านการกระตุ้นเตือนแบบลูกโซ่ [รหัส]
ห่าวเฟย, โบโบ ลี, เฉียน หลิว, ลี่ตง ปิง, เฟย ลี, ทัตเส็งชัว เอซีแอล'23
ต้นไม้แห่งความคิด: การแก้ปัญหาโดยเจตนาด้วยแบบจำลองภาษาขนาดใหญ่ [รหัส]
ชุนยู่ เหยา, เตียน หยู, เจฟฟรีย์ จ้าว, อิซัค ชาฟราน, โธมัส แอล. กริฟฟิธส์, หยวน เฉา, คาร์ทิค นาราซิมฮาน เนอร์ไอพีเอส'23
SatLM: โมเดลภาษาที่ได้รับความช่วยเหลือจากความพึงพอใจโดยใช้การแจ้งเชิงประกาศ [รหัส]
ซี เย่, เฉียวชู เฉิน, อิซิล ดิลลิก, เกร็ก เดอร์เรตต์ เนอร์ไอพีเอส'23
ART: การใช้เหตุผลหลายขั้นตอนอัตโนมัติและการใช้เครื่องมือสำหรับโมเดลภาษาขนาดใหญ่
ภาร์กาวี ปารานจาเป, สกอตต์ ลุนด์เบิร์ก, ซาเมียร์ ซิงห์, ฮันนาเนห์ ฮาจิชีร์ซี่, ลุค เซตเทิลมอยเออร์, มาร์โก ตูลิโอ ริเบโร่ เตรียมพิมพ์'23
การเพิ่มและการเลือกอัตโนมัติพร้อมท์ด้วยห่วงโซ่แห่งความคิดจากข้อมูลที่ติดป้ายกำกับ [รหัส]
คาซุ่น ชุม, ซือเจ๋อ เตียว, ตง จาง ผลการวิจัยของ EMNLP'23
การกระตุ้นเตือนแบบสังเคราะห์: การสร้างการสาธิตลูกโซ่แห่งความคิดสำหรับโมเดลภาษาขนาดใหญ่
จือหงเส้า, เย่หยุน กง, เย่หลง เซิน, มินลี่ หวง, หนานต้วน, เว่ยจู้ เฉิน ไอซีเอ็มแอล'23
การใช้เหตุผลแบบลูกโซ่แห่งความคิดที่ซื่อสัตย์
ชิง หลิว, เชรยา ฮาวัลดาร์, อดัม สไตน์, หลี่ จาง, เดลิป ราว, เอริค หว่อง, มาเรียนนา อาปิเดียนากี, คริส คัลลิสัน-เบิร์ช IJCNLP-AACL'23
การคิดใหม่ด้วยการดึงข้อมูล: การอนุมานแบบจำลองภาษาขนาดใหญ่ที่ซื่อสัตย์
ฮั่นเฟิงเหอ, หงหมิงจาง, แดนรอธ เตรียมพิมพ์'23
LAMBADA: การโยงย้อนกลับสำหรับการให้เหตุผลอัตโนมัติในภาษาธรรมชาติ
เซเยด เมห์ราน คาเซมี, นาจุง คิม, ดีปตี บาเทีย, ซิน ซู, ดีพัค รามาจันดราน เอซีแอล'23
การสืบค้นแบบสลับกับการใช้เหตุผลแบบลูกโซ่ของความคิดสำหรับคำถามหลายขั้นตอนที่เน้นความรู้ [รหัส]
ฮาร์ช ตริเวดี, นิรันจัน บาลาสุบรามาเนียน, ทูชาร์ ค็อต, อาชิช ซับฮาร์วาล เอซีแอล'23
โมเดลภาษาขนาดใหญ่เป็นผู้ให้เหตุผลพร้อมการยืนยันตนเอง [รหัส]
อี้ซวน เวง, มินจุน จู้, ชิจู้ เหอ, คัง หลิว, จุน จ้าว ผลการวิจัยของ EMNLP'23
โมเดลภาษาที่เสริมด้วยรีทรีฟเวอร์สามารถให้เหตุผลได้หรือไม่ เกมตำหนิระหว่างรีทรีฟเวอร์และโมเดลภาษา [รหัส]
ปาริชาด เบห์นัมกาเดอร์, ซานติอาโก มิเร็ต, ศิวา เรดดี้ ผลการวิจัยของ EMNLP'23
คำอธิบายเสริมสำหรับการเรียนรู้ในบริบทที่มีประสิทธิภาพ
ซี เย่, ศรีนิวาซาน ไอเยอร์, อัสลี เซลิคิลมาซ, เวส สโตยานอฟ, เกร็ก ดูร์เรตต์, รามาคานธ์ ปาซูนูรู ผลการวิจัย ACL'23
โปรแกรมกระตุ้นความคิด: การแยกการคำนวณออกจากการใช้เหตุผลสำหรับงานการใช้เหตุผลเชิงตัวเลข [รหัส]
เหวินหู เฉิน, เสวี่ยกวง หม่า, ซินยี่ หวาง, วิลเลียม ดับเบิลยู. โคเฮน ทีเอ็มแอลอาร์'23
การสร้างคำอธิบายที่ไม่ได้รับการดูแลผ่านการสร้างอินสแตนซ์ที่ถูกต้อง
ซือเจี๋ย เฉิง, จือหยง หวู่, เจียงจี้ เฉิน, จื้อซิง ลี, หยาง หลิว, หลิงเผิงคง AAAI'23
PAL: โมเดลภาษาที่ใช้โปรแกรมช่วย [โครงการ] [รหัส]
หลู่ยู่ เกา, อามาน มาดาน, ชูหยาน โจว, อูริ อาลอน, เผิงเฟย หลิว, ยี่หมิง หยาง, เจมี คัลลัน, เกรแฮม นอยบิก ไอซีเอ็มแอล'23
การแก้ปัญหาคำศัพท์ทางคณิตศาสตร์ผ่านแบบจำลองภาษาที่ชักนำการใช้เหตุผลแบบร่วมมือ [รหัส]
ซินหยู จู้, จุนเจี๋ย หวาง, หลิน จาง, หยูเซียง จาง, รุ่ยอี้ กัน, เจียซิง จาง, ยูจิ่ว หยาง เอซีแอล'23
โมเดลภาษาขนาดใหญ่สามารถปรับปรุงตนเองได้
เจียซิน ฮวง, ชิเซียง เชน กู่, เลอโหว, เยว่ซิน วู, เสวี่ยจือ หวาง, หงคุน หยู, เจียเว่ย ฮั่น EMNLP'23
Mind's Eye: การให้เหตุผลแบบจำลองภาษาที่มีเหตุผลผ่านการจำลอง
Ruibo Liu, Jason Wei, Shixiang Shane Gu, Te-Yen Wu, Soroush Vosoughi, Claire Cui, Denny Zhou, Andrew M. Dai ICLR'23
การกระตุ้นความคิดแบบอัตโนมัติในโมเดลภาษาขนาดใหญ่ [รหัส]
โจวเฉิง จาง, แอสตัน จาง, มู่ลี่, อเล็กซ์ สโมลา ICLR'23
โมเดลภาษาเป็นตัวให้เหตุผลแบบลูกโซ่แห่งความคิดหลายภาษา
เฟรดา ชิ, มิรัค ซุซกุน, มาร์คุส ไฟรแทก, ซูเอจือ หวาง, ซูราช ศรีวาตส์, โซรูช โวซูฮี, ฮยอง วอน ชุง, ยี่ ไต, เซบาสเตียน รูเดอร์, เดนนี่ โจว, ดิปันจัน ดาส, เจสัน เหว่ย ICLR'23
ถามฉันอะไรก็ได้: กลยุทธ์ง่ายๆ สำหรับการกระตุ้นโมเดลภาษา [รหัส]
ซิมราน อโรรา, อวานิกา นารายัน, มายี เอฟ. เฉิน, ลอเรล ออร์, นีล กูฮา, คุช บาเทีย, อิเนส ชามี, เฟรเดริก ซาลา, คริสโตเฟอร์ เร ICLR'23
การเรียนรู้พร้อมท์แบบไดนามิกผ่านการไล่ระดับนโยบายสำหรับการให้เหตุผลทางคณิตศาสตร์แบบกึ่งโครงสร้าง [โครงการ] [รหัส]
ปัน หลู่, เหลียง ชิว, ไค-เว่ย ชาง, หยิง เนี่ยน วู, ซ่ง ชุน จู, ทันเมย์ ราชปูโรหิต, ปีเตอร์ คลาร์ก, แอชวิน คัลยัน ICLR'23
การสร้างโมเดลภาษาขนาดใหญ่ให้เหตุผลดีขึ้นด้วยเครื่องมือตรวจสอบแบบ Step-Aware
อี้เฟย ลี, เจ๋อฉี หลิน, จางฉือจู๋, เฉียงฟู่, เป่ย เฉิน, เจี้ยน-กวงโหลว, เว่ยจู้ เฉิน เอซีแอล'23
การแจ้งจากน้อยไปหามากช่วยให้สามารถให้เหตุผลที่ซับซ้อนในแบบจำลองภาษาขนาดใหญ่ได้
เดนนี่ โจว, นาธานาเอล แชร์ลี, เลอ ฮาว, เจสัน เว่ย, นาธาน สเกลส์, เสวี่ยจือ หวาง, เดล ชูร์มานส์, แคลร์ ชุย, โอลิวิเยร์ บูสเกต์, ก๊วก เลอ, เอ็ด ชี ICLR'23
ความสอดคล้องในตนเองช่วยปรับปรุงการใช้เหตุผลแบบลูกโซ่ทางความคิดในแบบจำลองภาษา
ซือจือ หวาง, เจสัน เหว่ย, เดล ชูร์มานส์, ก๊วก เลอ, เอ็ด ชี, ชารัน นารัง, อาคังชา เชาเดรี, เดนนี่ โจว ICLR'23
การเสริมการดึงข้อมูลเพื่อใช้เหตุผลร่วมกัน: แนวทางแบบครบวงจร [รหัส]
เหวินห่าว หยู่, เฉิงกวง จู้, จือหาน จาง, ซั่วหัง หวาง, โจวเซิง จาง, หยูเว่ย ฝาง, เมิ่ง เจียง EMNLP'22
โมเดลภาษาของโค้ดคือผู้เรียนที่มีสามัญสำนึกเพียงไม่กี่คน [รหัส]
อามาน มาดาน, ชูหยาน โจว, อูริ อาลอน, ยี่หมิง หยาง, เกรแฮม นอยบิก EMNLP'22
การแก้ปัญหาการใช้เหตุผลเชิงปริมาณด้วยแบบจำลองภาษา [บล็อก]
ไอตอร์ ลิวโควีซ, อันเดอร์ส อันเดรียสเซ่น, เดวิด โดฮาน, อีธาน ดายเออร์, เฮนรีค มิชาเลฟสกี้, วิเนย์ ราเมช, แอมโบรส สโลน, เซม อานิล, อิมานอล ชแลก, ธีโอ กุตมัน-โซโล, ยูฮัย วู, เบห์นัม เนย์ชาบูร์, กาย กูร์-อารี, เวดันท์ มิสรา เนอร์ไอพีเอส'22
โมเดลภาษาขนาดใหญ่ยังคงไม่สามารถวางแผนได้ [รหัส]
คาร์ทิค วัลมีกัม, อัลเบอร์โต โอลโม, ซารัธ ศรีธารัน, ซับบาเรา กัมภมปตี เนอร์ไอพีเอส'22
โมเดลภาษาขนาดใหญ่เป็นแบบ Zero-Shot Reasoners
ทาเคชิ โคจิมะ, ชิเซียง เชน กู, มาเชล รีด, ยูทากะ มัตสึโอะ, ยูสุเกะ อิวาซาวะ เนอร์ไอพีเอส'22
แสดงโมเดลภาษาที่ได้รับการฝึกอบรมล่วงหน้าซ้ำแล้วซ้ำอีกสำหรับห่วงโซ่แห่งความคิด [รหัส]
ป๋อซือหวาง, เซียงเติ้ง, เฮือนซุน EMNLP'22
ห่วงโซ่แห่งความคิดกระตุ้นให้เกิดการใช้เหตุผลในแบบจำลองภาษาขนาดใหญ่ [บล็อก]
เจสัน เหว่ย, ซือจือ หวาง, เดล ชูร์มานส์, มาร์เทน บอสมา, ไบรอัน อิชเตอร์, เฟย เซีย, เอ็ด ชี, ก๊วก เลอ, เดนนี่ โจว เนอร์ไอพีเอส'22
↑ กลับไปด้านบน ↑
MathScale: การปรับแต่งคำสั่งมาตราส่วนสำหรับการให้เหตุผลทางคณิตศาสตร์
เจิ้งหยาง ถัง, ซิงซิง จาง, เบ็นยู หวาง, ฟูรุ เว่ย เตรียมพิมพ์'24
การเรียนรู้การใช้เหตุผลแบบนิรนัยจากคลังข้อมูลสังเคราะห์ตามตรรกะที่เป็นทางการ [รหัส]
เทรุฟูมิ โมริชิตะ, กาคุ โมริโอะ, อัตสึกิ ยามากูจิ, ยาสุฮิโระ โซกาวะ ไอซีเอ็มแอล'23
การกลั่นกรองห่วงโซ่แห่งความคิดเชิงสัญลักษณ์: โมเดลขนาดเล็กสามารถ "คิด" ทีละขั้นตอนได้เช่นกัน [รหัส]
หลิวเหนียน ฮาโรลด์ ลี, แจ็ค เฮสเซล, ยองแจ หยู, เซียง เหริน, ไค-เว่ย ฉาง, เยจิน ชอย เอซีแอล'23
ความเชี่ยวชาญเฉพาะด้านแบบจำลองภาษาขนาดเล็กไปสู่การใช้เหตุผลแบบหลายขั้นตอน
เหยาฟู่, ห่าวเผิง, ลิทู อู, อาชิช ซับฮาร์วาล, ทูชาร์ ค็อต ไอซีเอ็มแอล'23
โมเดลภาษาขนาดใหญ่เป็นครูที่ให้เหตุผล [รหัส]
นัมกยูโฮ, ลอรา ชมิด, เซยอง ยุน เอซีแอล'23
การสอนแบบจำลองภาษาขนาดเล็กให้มีเหตุผล
ลูซี่ ชาร์ลอตต์ มาจิสเตอร์, โจนาธาน มัลลินสัน, ยาคุบ อดาเม็ก, เอริก มัลมี, อเลียคเซย์ เซเวริน ACL'23 สั้น
การกลั่นความสามารถในการให้เหตุผลแบบหลายขั้นตอนของโมเดลภาษาขนาดใหญ่ให้เป็นโมเดลขนาดเล็กผ่านการแบ่งแยกความหมาย
คูมาร์ ชริธาร์, อเลสซานโดร สโตลโฟ, มรินมายา ซาชาน ผลการวิจัย ACL'23
การปรับขนาดคำสั่ง-โมเดลภาษาที่ได้รับการปรับแต่งอย่างละเอียด
ฮยอน วอน ชุง, เลอ ฮาว, เชย์น ลองเปร, บาร์เร็ต ซอฟ, ยี เทย์, วิลเลียม เฟดุส, เอริก ลี, ซูจือ หวาง, มอสตาฟา เดห์กานี, สิทธัตถะ บราห์มา, อัลเบิร์ต เว็บสัน, ชิเซียง เชน กู, จูยัน ได, มิรัค ซุซกุน, ซินหยุน เฉิน, อาคานชา เชาวรี, Sharan Narang, Gaurav Mishra, Adams Yu, Vincent Zhao, Yanping Huang, Andrew Dai, Hongkun Yu, Slav Petrov, Ed H. Chi, Jeff Dean, Jacob Devlin, Adam Roberts, Denny Zhou, Quoc V. Le, Jason Wei เจเอ็มแอลอาร์'22
↑ กลับไปด้านบน ↑
Visual Sketchpad: การสเก็ตช์ภาพเป็นห่วงโซ่แห่งความคิดสำหรับโมเดลภาษาหลายรูปแบบ [โครงการ] [รหัส]
ยู่ชี หู, เหว่ยเจีย ชิ, ซิงหยู ฟู่, แดน ร็อธ, มาริ ออสเทนดอร์ฟ, ลุค เซตเทิลมอยเออร์, โนอาห์ เอ สมิธ, แรนเจย์ กฤษณะ เตรียมพิมพ์'24
การใช้เหตุผลตามแผนภูมิ: การถ่ายโอนความสามารถจาก LLM ไปยัง VLM
วิกเตอร์ คาร์บูน, ฮัสซัน มานซูร์, ฟางหยู่ หลิว, ราหุล อาราลิกัตเต, จิลส์ เบชเลอร์, จินตง เฉิน, อับฮันชู ชาร์มา ผลการวิจัยของ NAACL'24
SpatialVLM: การมอบแบบจำลองภาษาการมองเห็นด้วยความสามารถในการให้เหตุผลเชิงพื้นที่ [โครงการ]
ป๋อหยวน เฉิน, โจว ซู, ฌอน เคอร์มานี, ไบรอัน อิชเตอร์, แดนนี่ ดรีส์, พีท ฟลอเรนซ์, ดอร์ซา ซาดิห์, เลโอนิดาส กุยบาส, เฟย เซีย CVPR'24
Chain-of-Table: ตารางการพัฒนาในห่วงโซ่การใช้เหตุผลเพื่อการทำความเข้าใจตาราง
Zilong Wang, Hao Zhang, Chun-Liang Li, Julian Martin Eisenschlos, Vincent Perot, Zifeng Wang, Lesly Miculicich, Yasuhisa Fujii, Jingbo Shang, Chen-Yu Lee, โทมัส ไฟสเตอร์ ICLR'24
การเรียนรู้ตามบริบทลิงก์สำหรับ LLM หลายรูปแบบ [รหัส]
หยานไท่, เหว่ยเฉินฟาน, จ้าว จาง, เฟิง จู้, รุย จ้าว, ซีเว่ย หลิว CVPR'24
ราศีเมถุนในการให้เหตุผล: เปิดตัวสามัญสำนึกในแบบจำลองภาษาขนาดใหญ่หลายรูปแบบ
หยูชิง หวาง, หยุน จ้าว เตรียมพิมพ์'23
G-LLaVA: การแก้ปัญหาทางเรขาคณิตด้วยแบบจำลองภาษาขนาดใหญ่หลายรูปแบบ
เจียฮุย เกา, เหรินเจี๋ย พาย, จางจี้เผิง, เจียเฉิง เย่, วันจุน จง, หยูเฟย หวัง, หลานชิง หง, เจี้ยนหัว ฮั่น, หัง ซู, เจิ้งกั๋ว ลี่, หลิงเผิงคง เตรียมพิมพ์'23
Chameleon: การใช้เหตุผลเชิงองค์ประกอบแบบ Plug-and-Play พร้อมโมเดลภาษาขนาดใหญ่ [โครงการ] [รหัส]
ปันหลู่, เป่าหลินเผิง, ห่าวเฉิง, มิเชล แกลลีย์, ไค-เว่ยฉาง, หยิงเหนียนหวู่, จู้ซ่งชุน, เจียนเฟิงเกา เนอร์ไอพีเอส'23
MM-REACT: การแจ้ง ChatGPT สำหรับการให้เหตุผลและการดำเนินการหลายรูปแบบ [โครงการ] [รหัส] [สาธิต]
เจิ้งหยวน หยาง, หลินจี้ ลี, เจียนเฟิง หวัง, เควิน ลิน, เอห์ซาน อาซาร์นาซับ, ไฟซาล อาเหม็ด, ซีเฉิง หลิว, เซ หลิว, ไมเคิล เซง, ลี่ฮวน หวัง เตรียมพิมพ์'23
ViperGPT: การอนุมานด้วยภาพผ่านการดำเนินการ Python เพื่อการให้เหตุผล [โครงการ] [รหัส]
ดิแดค ซูริส, ซาชิต เมนอน, คาร์ล วอนดริก ไอซีซีวี'23
Visual ChatGPT: การพูดคุย การวาดภาพ และการแก้ไขด้วย Visual Foundation Models [รหัส]
เฉินเฟย หวู่, เซิงหมิงหยิน, เหว่ยเจินฉี, เสี่ยวตง หวาง, เจ๋อเฉิง ถัง, หนานต้วน เตรียมพิมพ์'23
การใช้เหตุผลแบบลูกโซ่แห่งความคิดหลายรูปแบบในแบบจำลองภาษา [รหัส]
โจวเฉิง จาง, แอสตัน จาง, มู่ลี่, ไห่ จ้าว, จอร์จ คารีพิส, อเล็กซ์ สโมลา เตรียมพิมพ์'23
การเขียนโปรแกรมด้วยภาพ: การใช้เหตุผลเชิงองค์ประกอบภาพโดยไม่ได้รับการฝึกอบรม [โครงการ] [รหัส]
ทันเมย์ กุปตะ, อนิรุดธา เกมภาวี. ซีพีวีอาร์'23
แบบจำลองโสคราตีส: การเขียนการใช้เหตุผลหลายรูปแบบแบบ Zero-Shot ด้วยภาษา [โครงการ] [รหัส]
แอนดี้ เซง, มาเรีย แอตทาเรียน, ไบรอัน อิชเตอร์, คริสตอฟ โชโรมานสกี้, เอเดรียน หว่อง, สเตฟาน เวลเกอร์, เฟเดริโก้ ทอมบารี, อวีค ปูโรหิต, ไมเคิล เรียว, วิกัส ซินด์วานี, จอห์นนี่ ลี, วินเซนต์ แวนฮูค, พีท ฟลอเรนซ์ ICLR'23
↑ กลับไปด้านบน ↑
↑ กลับไปด้านบน ↑
↑ กลับไปด้านบน ↑
/abs/
จัดรูปแบบหากเป็นสิ่งพิมพ์ arXiv)ไม่ต้องกังวลหากคุณทำอะไรผิด เราจะแก้ไขให้คุณ!