這是“語言模型as-a-a-service(LMAAS)”論文的精選清單,該論文主要由Tianxiang Sun維護。我們強烈鼓勵對此主題感興趣的NLP研究人員提出添加或更新論文的請求(請參閱貢獻)。觀看此存儲庫以獲取最新更新!
由於商業原因和昂貴的調整成本,預先培訓的大型語言模型(LLM)(例如GPT-3)通常以服務而不是開源模型權重。我們稱此場景為“語言模型 - as-a-service(LMAAS) ”(該術語最初用於我們的ICML'2022紙張)。在這種情況下,用戶可以通過推理API訪問強大的LLM。 LLM的服務為許多用例提供了動力(請參閱GPT-3演示)。與微調相反,LMAA允許單個通用LLM執行許多不同的任務,因此具有高度部署的效率。然而,如何在不訪問其參數和梯度的情況下調整LLM的目標任務是一個挑戰。為了使LLM受益於更廣泛的受眾,我們收集了適合這種情況的論文,以促進未來的研究。
哪些論文適合LMAAS的情況?我們主要考慮將LLMS調整到下游任務的論文,而無需訪問模型參數和梯度。儘管部署後還可以進行微調的LLMS服務,但它們僅限於為有限的受眾解決一項任務。在我們的範圍中,我們更喜歡為各種用戶提供通用模型。
在現有文獻中,有幾種適合LMAA的研究線:
文本提示和中文學習之間的邊界有些模糊。在此存儲庫中,文本提示類別包含不使用標籤樣本的論文,而在上下文中的學習類別則由在提示中包含標記樣本的論文組成。
注意:相關(和部分重疊)主題是基於及時的學習,該學習旨在分別通過使用某些模板和言語來轉換輸入和輸出來使用通用LLMS解決下游任務。但是,基於及時的學習中的大多數工作都需要訪問模型參數和梯度,因此不適合我們的範圍。對於不適合LMAA的基於及時的學習論文,我們建議為另一個很棒的紙張列表做出貢獻:提示紙。
與精細調整的特定任務LLM相比,LMAA具有以下優點:
作品的縮寫。
工作的關鍵特徵。
作品的主要實驗環境。
語言模型作為知識基礎? EMNLP 2019
Fabio Petroni,Timocktäschel,Patrick Lewis,Anton Bakhtin,Yuxiang Wu,Alexander H. Miller,Sebastian Riedel 。 [PDF] [代碼]
我們怎麼知道語言模型知道什麼? TACL 2020
Zhengbao Jiang,Frank F. Xu,Jun Araki,Graham Neubig 。 [PDF] [代碼]
語言模型是很少的學習者。神經2020
湯姆·B·布朗(Tom B. Ramesh,Daniel M. Ziegler,Jeffrey Wu,Clemens Winter,Christopher Hesse,Mark Chen,Eric Sigler,Mateusz Litwin,Scott Gray,Benjamin Chess,Jack Clark,Christopher Berner,Christopher Berner,Sam McCandlish,Alec Radford,Alec Radford,Ilya Sutskever,Ilya Sutskever,dario Amodei 。 [PDF]
通過在數據集和提示集合上進行元調整來調整語言模型,以零射擊學習。 EMNLP 2021的發現
Ruiqi Zhong,Kristy Lee,Zheng Zhang,Dan Klein 。 [PDF] [代碼]
填充語言模型是零拍的學習者。 ICLR 2022
Jason Wei,Maarten Bosma,Vincent Y. Zhao,Kelvin Guu,Adams Wei Yu,Brian Lester,Nan du,Andrew M. Dai,Quoc V. Le 。 [PDF] [代碼]
多任務提示訓練可以使零擊任務概括。 ICLR 2022
Victor Sanh,Albert Webson,Colin Raffel,Stephen H. Bach,Lintang Sutawika,Zaid Alyafeai,Antoine Chaffin,Arnaud Stiegler,Teven Le Scao,Arun Raja,Manan Dey,Manan Dey,Ma Saiful Bari,MaSaiph Eliza Szczechla, Taewoon Kim, Gunjan Chhablani, Nihal Nayak, Debajyoti Datta, Jonathan Chang, Mike Tian-Jian Jiang, Han Wang, Matteo Manica, Sheng Shen, Zheng Xin Yong, Harshit Pandey, Rachel Bawden, Thomas Wang, Trishala Neeraj, Jos Rozen,Abheesht Sharma,Andrea Santilli,Thibault Fevry,Jason Alan Fries,Ryan Teehan,Tali Bers,Stella Biderman,Leo Gao,Thomas Wolf,Alexander M. Rush 。 [PDF] [代碼]
培訓語言模型遵循人類反饋的說明。預印度2022.3
Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder,Paul Christiano,Jan Leike,Ryan Lowe 。 [PDF] [代碼]
大型語言模型是零拍的推理器。預印度2022.6
Takeshi Kojima,Shixiang Shane Gu,Machel Reid,Yutaka Matsuo,Yusuke Iwasawa 。 [PDF] [代碼]
通過冷凍雙向語言模型回答零拍的視頻問題。預印度2022.6
Antoine Yang,Antoine Miech,Josef Sivic,Ivan Laptev,Cordelia Schmid 。 [PDF] [代碼]
語言模型是通用接口。預印度2022.6
Yaru Hao,Haoyu Song,Li Dong,Shaohan Huang,Zewen Chi,Wenhui Wang,Ma,Furu Wei 。 [PDF] [代碼]
存儲庫級的及時生成大型代碼的大型語言模型。預印度2022.6
Disha Shrivastava,Hugo Larochelle,Daniel Tarlow [PDF] [Code],2022.6
忽略以前的提示:語言模型的攻擊技術。最佳紙張獎 @ Neurips ML安全研討會2022。
FábioPerez,Ian Ribeiro [PDF] [Project],2022.11
語言模型是很少的學習者。神經2020
湯姆·B·布朗(Tom B. Ramesh,Daniel M. Ziegler,Jeffrey Wu,Clemens Winter,Christopher Hesse,Mark Chen,Eric Sigler,Mateusz Litwin,Scott Gray,Benjamin Chess,Jack Clark,Christopher Berner,Christopher Berner,Sam McCandlish,Alec Radford,Alec Radford,Ilya Sutskever,Ilya Sutskever,dario Amodei,Dario Amodei 。 [PDF]
使用前校準:提高語言模型的少量性能。 ICML 2021
Tony Z. Zhao,Eric Wallace,Shi Feng,Dan Klein,Sameer Singh 。 [PDF] [代碼]
將內在學習作為隱性貝葉斯推論的解釋。 ICLR 2022
Sang Michael Xie,Aditi Raghunathan,Percy Liang,Tengyu MA 。 [PDF] [代碼]
思想鏈促使人們在大語言模型中引起推理。預印度2022.1
Jason Wei,Xuezhi Wang,Dale Schuurmans,Maarten Bosma,Brian Ichter,Fei Xia,Ed Chi,Quoc Le,Quoc LE,Denny Zhou 。 [PDF]
通過自然語言眾包指令進行跨任務概括。 ACL 2022
Swaroop Mishra,Daniel Khashabi,Chitta Baral,Hannaneh Hajishirzi 。 [PDF] [代碼]
井井有條的提示和在哪裡找到它們:克服幾乎沒有彈藥的訂單靈敏度。 ACL 2022
lu,Max Bartolo,Alastair Moore,Sebastian Riede,Pontus Stenetorp 。 [PDF]
嘈雜的頻道語言模型提示進行幾個彈頭文本分類。 ACL 2022
Sewon Min,Mike Lewis,Hannaneh Hajishirzi,Luke Zettlemoyer 。 [PDF] [代碼]
通過語言模型在語言中進行元學習。 ACL 2022
Yanda Chen,Ruiqi Zhong,Sheng Zha,George Karypis,他。 [PDF] [代碼]
是什麼使GPT-3的良好的文本示例呢? Deelio@ACL 2022
Jiachang Liu,Dinghan Shen,Yizhe Zhang,Bill Dolan,Lawrence Carin,Weizhu Chen 。 [PDF]
學會檢索提示中的內在學習。 NAACL 2022
Ohad Rubin,Jonathan Herzig,Jonathan Berant 。 [PDF] [代碼]
metaicl:學習在上下文中學習。 NAACL 2022
Sewon Min,Mike Lewis,Luke Zettlemoyer,Hannaneh Hajishirzi 。 [PDF] [代碼]
通過自我監督培訓來改善內在的幾次學習。 NAACL 2022
Mingda Chen,Jingfei du,Ramakanth Pasunuru,Todor Mihaylov,Srini Iyer,Veselin Stoyanov,Zornitsa Kozareva 。 [PDF]
自我生成的文化學習:利用自動回歸語言模型作為演示生成器。 LPLM@NAACL 2022
Hyuhng Joon Kim,Hyunsoo Cho,Junyeob Kim,Taeuk Kim,Kang Min Yoo,Sang-Goo Lee 。 [PDF]
重新思考示範的作用:是什麼使內在的學習工作?預印度2022.2
Sewon Min,Xinxi Lyu,Ari Holtzman,Mikel Artetxe,Mike Lewis,Hannaneh Hajishirzi,Luke Zettlemoyer 。 [PDF] [代碼]
對話狀態跟踪的文本學習。預印度2022.3
Yushi Hu,Chia-Hsuan Lee,Tianbao Xie,Tao Yu,Noah A. Smith,Mari Ostendorf 。 [PDF] [代碼]
自洽性改善了語言模型中的思想推理鏈。預印度2022.3
Xuezhi Wang,Jason Wei,Dale Schuurmans,Quoc Le,Ed Chi,Denny Zhou 。 [PDF]
星:自學成才的推理推理推理。預印度2022.3
Eric Zelikman,Yuhuai Wu,Noah D. Goodman 。 [PDF]
通過對1,600多個語言任務的文章中的指令進行基準概括。預印度2022.4
Yizhong Wang, Swaroop Mishra, Pegah Alipoormolabashi, Yeganeh Kordi, Amirreza Mirzaei, Anjana Arunkumar, Arjun Ashok, Arut Selvan Dhanasekaran, Atharva Naik, David Stap, Eshaan Pathak, Giannis Karamanolakis, Haizhi Gary Lai, Ishan Purohit, Ishani Mondal, Jacob Anderson, Kirby Kuznia,Krima Doshi,Maitreya Patel,Kuntal Kumar Pal,Mehrad Moradshahi,Mihir Parmar,Mirali Purohit,Neeraj Varshney,Phani Rohitha Rohitha Rohitha Kaza,Pulkit an Reddy,Sumanta Patro,Tanay Dixit,Xudong Shen,Chitta Baral,Yejin Choi, Noah A. Smith,Hannaneh Hajishirzi,Daniel Khashabi 。 [PDF] [代碼]
語言模型可以從上下文中的解釋中學習嗎? 。預印度2022.4
Andrew K. Lampinen,Ishita Dasgupta,Stephanie Cy Chan,Kory Matthewson,Michael Henry Tessler,Antonia Creswell,James L. McClelland,Jane X. Wang,Felix Hill 。 [PDF]
地面真實標籤很重要:更深入地研究輸入標籤的演示。預印度2022.5
Junyeob Kim,Hyuhng Joon Kim,Hyunsoo Cho,Hwiyeol Jo,Sang-Woo Lee,Sang-Goo Lee,Kang Min Yoo,Taeuk Kim 。 [PDF]
在幾乎沒有鏡頭的學習中解釋的不可靠性。預印度2022.5
Xi ye,Greg Durrett 。 [PDF]
最小一是提示可以在大型語言模型中實現複雜的推理。預印度2022.5
Denny Zhou,NathanaelSchärli,Le Hou,Jason Wei,Nathan Scales,Xuezhi Wang,Dale Schuurmans,Olivier Bousquet,Quoc Le,Ed Chi 。 [PDF]
Maieutic提示:邏輯上一致的推理,並進行遞歸解釋。預印度2022.5
Jaehun Jung,Lianhui Qin,Sean Welleck,Faeze Brahman,Chandra Bhagavatula,Ronan Le Bras,Yejin Choi 。 [PDF]
在使語言模型的推動下,更好的推理器。預印度2022.6
Yifei Li,Zeqi Lin,Shizhuo Zhang,Qiang Fu,Bei Chen,Jian-Guang Lou,Weizhu Chen 。 [PDF] [代碼]
大型語言模型的緊急能力。預印度2022.6
Jason Wei,Yi Tay,Rishi Bommasani,Colin Raffel,Barret Zoph,Sebastian Borgeaud,Dani Yogatama,Maarten Bosma,Denny Zhou,Donny Zhou,Donald Metzler,Ed H. Chi,Tatsunori Hashimoto,Tatunori Hashimoto,Oriol Vinyals,Oriol Vinyals, Percy Liang Liang,William fedus,jeff defus,jeff deas eff deas eff 。 [PDF]
語言模型是通用接口。預印度2022.6
Yaru Hao,Haoyu Song,Li Dong,Shaohan Huang,Zewen Chi,Wenhui Wang,Ma,Furu Wei 。 [PDF] [代碼]
變形金剛可以在文化中學習什麼?簡單功能類別的案例研究。預印度2022.8
Shivam Garg,Dimitris Tsipras,Percy Liang,Gregory Valiant 。 [PDF] [代碼]
通過蒸餾上下文學習。預印度2022.9
查理·斯內爾(Charlie Snell),丹·克萊因(Dan Klein),瑞奇(Ruiqi Zhong) 。 [PDF]
用符號語言綁定語言模型。預印度2022.10
Zhoujun Cheng*,Tianbao Xie*,Peng Shi,Chengzu Li,Rahul Nadkarni,Yushi Hu,Caiming Xiong,Dragomir Radev,Mari Ostendorf,Luke Zettlemoyer,Luke Zettlemoyer,Noah A. Smith,Tao Yu 。 [PDF] [代碼] [網站]
在大語言模型微調中保留文化學習能力。預印度2022.11
Yihan Wang,Si Si,Daliang Li,Michal Lukasik,Felix Yu,Cho-Jui Hsieh,Inderjit S Dhillon,Sanjiv Kumar 。 [PDF]
通過文化學習來教授算法推理。預印度2022.11
Hattie Zhou,Azade Nova,Hugo Larochelle,Aaron Courville,Behnam Neyshabur,Hanie Sedghi 。 [PDF]
哪些學習算法是在文化中學習?對線性模型進行調查。預印度2022.11
EkinAkyürek,Dale Schuurmans,Jacob Andreas,Tengyu MA,Denny Zhou 。 [PDF]
語言模型的黑盒調整。 ICML 2022
天xiang sun,Yunfan Shao,Hong Qian,Xuanjing Huang,Xipeng Qiu。 [PDF] [代碼]
黑框促使學習預訓練的語言模型。 TMLR 2023.2
Shizhe Diao,Xuechun Li,Yong Lin,Zhichao Huang,Tong Zhang 。 [PDF]
握把:無梯度,基於編輯的指令搜索,以提示大型語言模型。預印度2022.3
Archiki Prasad,Peter Hase,Xiang Zhou,Mohit Bansal 。 [PDF] [代碼]
很少射擊,促使可控響應生成。預印度2022.6
Hsuan Su,Pohan Chi,Shih-Cheng Huang,Chung Ho Lam,Saurav Sahay,Shang-Tse Chen,Hung-Yi Lee 。 [PDF]
BBTV2:邁向具有大語言模型的無梯度未來。 EMNLP 2022
天xiang sun,Zhengfu He,Hong Qian,Yunhua Zhou,Xuanjing Huang,Xipeng Qiu 。 [PDF] [代碼]
RLPrompt:通過增強學習優化離散文本提示。 EMNLP 2022
Mingkai Deng,Jianyu Wang,Cheng-Ping Hsieh,Yihan Wang,Han Guo,Tianmin Shu,Meng Song,Eric P. Xing,Zhiting Hu 。 [PDF] [代碼]
剪輯調整:邁向無衍生的及時學習,並混合獎勵。 EMNLP 2022的發現
Yekun Chai,Shuohuan Wang,Yu Sun,Hao Tian,Hua Wu,Haifeng Wang 。 [PDF]
蛋白質:測試時間及時通過增強學習進行編輯。預印度2022.11
Tianjun Zhang,Xuezhi Wang,Denny Zhou,Dale Schuurmans,Joseph E. Gonzalez。 [PDF] [代碼]
提示啟動:帶有十個前向通行證的黑框文本分類。預印度2022.12
Bairu Hou,Joe O'Connor,Jacob Andreas,Shiyu Chang,Yang Zhang 。 [PDF]
多任訓練模塊化提示的多任務預培訓,以進行中文幾次學習。 ACL 2023
天xiang sun,Zhengfu He,Qin Zhu,Xipeng Qiu,Xuanjing Huang 。 [PDF]
當梯度下降符合無衍生物的優化時:在黑框方案中進行的匹配。 ACL 2023
Chengcheng Han,Liqing Cui,Renyu Zhu,Jianing Wang,Nuo Chen,Qiushi Sun,Xiang Li,Ming Gao 。 [PDF]
使基於及時的黑框調音彩色:從三個正交角度來增強模型的概括。 LREC-Coling 2024
Qiushi Sun,Chengcheng Han,Nuo Chen,Renyu Zhu,Jingyang Gong,Xiang Li,Ming Gao 。 [PDF]
調音還是不調音?將預估計的代表適應各種任務。 REPL4NLP@ACL 2019
Matthew E. Peters,Sebastian Ruder,Noah A. Smith 。 [PDF]
解釋對校準黑匣子型號有用嗎? ACL 2022
Xi ye,Greg Durrett 。 [PDF] [代碼]
共同培訓改善了針對大型語言模型的迅速學習。 ICML 2022
亨特·朗(Hunter Lang),莫妮卡·阿格拉瓦爾(Monica Agrawal),尹金(Yoon Kim),大衛·桑塔格(David Sontag) 。 [PDF]
Y-Tuning:通過標籤表示學習的大規模預訓練模型的有效調整範例。預印度2022.2
Yitao Liu,Chenxin AN,Xipeng Qiu 。 [PDF]
LST:用於參數和內存有效傳輸學習的梯子側調。神經2022
Yi-lin Sung,Jaemin Cho,Mohit Bansal 。 [PDF] [代碼]
解碼器調整:有效的語言理解是解碼。預印度2022.12
Ganqu Cui,Winao Li,Ning ding,Longtao Huang,Zhiyuan Liu,毛松太陽。 [PDF]
使用驗證的語言模型生成數據集。 EMNLP 2021
Timo Schick,HinrichSchütze 。 [PDF] [代碼]
GPT3MIX:利用大型語言模型進行文本增強。 EMNLP 2021的發現
Kang Min Yoo,Dongju Park,Jaewook Kang,Sang-Woo Lee,Woomyeong Park 。 [PDF] [代碼]
產生的知識促使常識性推理。 ACL 2022
Jicheng Liu,Alisa Liu,Ximing Lu,Sean Welleck,Peter West,Ronan Le Bras,Yejin Choi,Hannaneh Hajishirzi 。 [PDF] [代碼]
零:通過數據集生成有效的零擊學習。 EMNLP 2022
Jicheng Ye,Jiahui Gao,Qintong Li,Hang Xu,Jiangtao Feng,Zhiyong Wu,Tao Yu,Lingpeng Kong 。 [PDF] [代碼]
零體+:有效的零擊學習中的自引導高質量數據生成。預印度2022.2
Jihui Gao,Renjie Pi,Yong Lin,Hang Xu,Jiacheng Ye,Zhiyong Wu,Xiaodan Liang,Zhenguo li,lingpeng kong 。 [PDF]
GOUSC:使用大語言模型進行對話進行對話,以進行情感支持對話。 ACL 2023的發現
Chujie Zheng,Sahand Sabour,Jiaxin Wen,Zheng Zhang,Minlie Huang 。 [PDF]
使用語言模型生成培訓數據:朝著零局的語言理解。神經2022
Yu Meng,Jiaxin Huang,Yu Zhang,Jiawei Han [PDF] [代碼]
?首先,感謝您抽出寶貴的時間做出貢獻! ?
貢獻的步驟:
PaperNumber
,然後提交您的拉請請求。我們建議給出一個非常簡短的解釋,為什麼您認為應該添加或更改論文。不用擔心,如果您錯了問題,我們會為您修復它們。只需在這裡做出貢獻並促進您的出色工作!
除了提交拉動請求的以下貢獻者外,我們還要感謝Ohad Rubin和Kang Min Yoo推薦論文。