Pembelajaran mesin yang luar biasa untuk kompiler dan pengoptimalan program
Daftar makalah penelitian, kumpulan data, dan alat yang luar biasa untuk menerapkan teknik pembelajaran mesin pada kompiler dan pengoptimalan program.
Isi
- Dokumen
- Survei
- Kompilasi Iteratif dan Penyetelan Opsi Kompiler
- Optimasi tingkat instruksi
- Pemetaan Paralelisme dan Penjadwalan Tugas
- Bahasa dan Kompilasi
- Penyetelan Otomatis dan Eksplorasi Ruang Desain
- Pengurangan Ukuran Kode
- Model Biaya dan Kinerja
- Optimasi khusus domain
- Representasi Program Pembelajaran
- Mengaktifkan ML di Kompiler dan Optimasi Sistem
- Pemodelan/Analisis Memori/Cache
- Buku
- Pembicaraan dan Tutorial
- Perangkat lunak
- Tolok Ukur dan Kumpulan Data
- Konferensi
- Jurnal
- Bagaimana Berkontribusi
Dokumen
Survei
- Pembelajaran Mesin dalam Optimasi Kompiler - Zheng Wang dan Michael O'Boyle, Prosiding IEEE, 2018
- Survei tentang penyetelan otomatis kompiler menggunakan pembelajaran mesin - Amir H. Ashouri, William Killian, John Cavazos, Gianluca Palermo, dan Cristina Silvano, ACM Computing Surveys (CSUR), 2018
- Survei pembelajaran mesin untuk kode besar dan kealamian - Miltiadis Allamanis, Earl T. Barr, Premkumar Devanbu, dan Charles Sutton, ACM Computing Surveys (CSUR), 2018
- Taksonomi ML untuk Masalah Sistem - Martin Maas, IEEE Micro, 2020
- Penyusun Pembelajaran Mendalam: Survei Komprehensif - Mingzhen Li, Yi Liu, Xiaoyan Liu, Qingxiao Sun, Xin You, Hailong Yang, Zhongzhi Luan, Lin Gan, Guangwen Yang, Depei Qian, Transaksi IEEE pada Sistem Paralel dan Terdistribusi, 2021
Kompilasi Iteratif dan Penyetelan Opsi Kompiler
- SRTuner: Kustomisasi Optimasi Kompiler yang Efektif dengan Mengekspos Hubungan Sinergis - Sunghyun Park, Salar Latifi, Yongjun Park, Armand Behroozi, Byungsoo Jeon, Scott Mahlke. CGO 2022.
- Optimasi Kompilasi Iteratif Berdasarkan Pembelajaran Metrik dan Pemfilteran Kolaboratif - Hongzhi Liu, Jie Luo, Ying Li, Zhonghai Wu. ACM TACO 2022.
- Pengoptimalan Bayesian Lebih Unggul daripada Penelusuran Acak untuk Penyetelan Hyperparameter Pembelajaran Mesin: Analisis Tantangan Pengoptimalan Kotak Hitam 2020 - Ryan Turner, David Eriksson, Michael McCourt, Juha Kiili, Eero Laaksonen, Zhen Xu, Isabelle Guyon. arXiv 2021.
- Bliss: aplikasi kompleks penyetelan otomatis menggunakan kumpulan beragam model pembelajaran ringan - RB Roy, T Patel, V Gadepally, D Tiwari. PLDI 2021.
- Penyetelan Otomatis Kompiler yang Efisien melalui Optimasi Bayesian - Junjie Chen, Ningxin Xu, Peiqi Chen, Hongyu Zhang. ICSE 2021.
- Pencarian Pohon Monte Carlo yang Disesuaikan untuk Transformasi Pengoptimalan Loop Terkomposisi LLVM/Polly - Jaehoon Koo, Prasanna Balaprakash, Michael Kruse, Xingfu Wu, Paul Hovland, Mary Hall. Arxiv.org, 2021.
- Peningkatan penataan ulang blok dasar - Andy Newell dan Sergey Pupyrev. Transaksi IEEE di Komputer, 2020.
- Optimasi Kompiler Neural Statis melalui Pembelajaran Penguatan Mendalam - Rahim Mammadli, Ali Jannesari, Felix Wolf. Lokakarya HPC LLVM, 2020.
- Ruang Pencarian Penyetelan Otomatis untuk Transformasi Loop - Michael Kruse, Hal Finkel, Xingfu Wu. Lokakarya HPC LLVM, 2020.
- Pendekatan Penyaringan Kolaboratif untuk Penyetelan Otomatis Optimasi Kompiler - Stefano Cereda, Gianluca Palermo, Paolo Cremonesi, dan Stefano Doni, LCTES 2020.
- Autophase: Pengurutan fase kompiler untuk hls dengan pembelajaran penguatan mendalam. Ameer Haj-Ali, Qijing Huang, William Moses, John Xiang, Ion Stoica, Krste Asanovic, John Wawrzynek. MLS 2020.
- FuncyTuner: Aplikasi Ilmiah Penyetelan Otomatis Dengan Kompilasi Per-loop - Tao Wang, Nikhil Jain, David Beckingsale, David Böhme, Frank Mueller, Todd Gamblin. ICPP 2019.
- Micomp: Mengurangi masalah pengurutan fase kompiler menggunakan sub-urutan optimasi dan pembelajaran mesin - Amir H. Ashouri, Andrea Bignoli, Gianluca Palermo, Cristina Silvano, Sameer Kulkarni, dan John Cavazos. Transaksi ACM pada Arsitektur dan Optimasi Kode (TACO) 2017.
- Optimasi Jadwal Iteratif untuk Paralelisasi dalam Model Polihedron - Stefan Ganser, Armin Grösslinger, Norbert Siegmund, Sven Apel, dan Christian Lengauer. Transaksi ACM pada Arsitektur dan Optimasi Kode (TACO), 2017.
- Belajar mengoptimalkan program - Rudy Bunel, Alban Desmaison, M. Pawan Kumar, Philip HS Torr, Pushmeet Kohlim. ICLR 2017
- Pembelajaran berkelanjutan tentang heuristik kompiler - Michele Tartara dan Stefano Crespi Reghizzi. Transaksi ACM pada Arsitektur dan Optimasi Kode (TACO), 2013.
- Mengurangi masalah pengurutan fase optimasi kompiler menggunakan pembelajaran mesin - Sameer Kulkarni dan John Cavazos. OOPSLA 2012.
- Evaluasi teknik pemodelan yang berbeda untuk kompilasi berulang - Eunjung Park, Sameer Kulkarni, dan John Cavazos. KASUS 2011.
- Mengevaluasi pengoptimalan berulang di 1000 kumpulan data - Yang Chen, Yuanjie Huang, Lieven Eeckhout, Grigori Fursin, Liang Peng, Olivier Temam, dan Chengyong Wu. PLDI 2010
- Optimalisasi berulang dalam model polihedral: Bagian II, waktu multidimensi - Louis-Noël Pouchet, Cédric Bastoul, Albert Cohen, dan John Cavazos. PLDI 2008.
- Cole: eksplorasi tingkat pengoptimalan kompiler - Kenneth Hoste dan Lieven Eeckhout. CGO 2008.
- MILEPOST GCC: penyusun penelitian berbasis pembelajaran mesin - Grigori Fursin, Cupertino Miranda, Olivier Temam, Mircea Namolaru, Elad Yom-Tov, Ayal Zaks, Bilha Mendelson dkk., 2008
- Mengevaluasi algoritma pencarian urutan fase optimasi heuristik - JW Davidson, Gary S. Tyson, DB Whalley, dan PA Kulkarni. CGO 2007.
- Memilih pengoptimalan kompiler yang baik dengan cepat menggunakan penghitung kinerja - John Cavazos, Grigori Fursin, Felix Agakov, Edwin Bonilla, Michael FP O'Boyle, dan Olivier Temam. CGO 2007.
- Menggunakan pembelajaran mesin untuk memfokuskan pengoptimalan berulang - Felix Agakov, Edwin Bonilla, John Cavazos, Björn Franke, Grigori Fursin, Michael FP O'Boyle, John Thomson, Marc Toussaint, dan Christopher KI Williams. CGO 2006.
- Kompilasi dinamis khusus metode menggunakan regresi logistik - John Cavazos dan Michael FP O'boyle. OOPSLA 2005.
- Memprediksi faktor-faktor yang tidak terungkap menggunakan klasifikasi terbimbing - Mark Stephenson dan Saman Amarasinghe. CGO 2005.
- Pencarian cepat untuk rangkaian fase pengoptimalan yang efektif - Prasad Kulkarni, Stephen Hines, Jason Hiser, David Whalley, Jack Davidson, dan Douglas Jones. PLDI 2004.
Optimasi tingkat instruksi
- RL4Real: Pembelajaran Penguatan untuk Alokasi Register - S. VenkataKeerthy, Siddharth Jain, Anilava Kundu, Rohit Aggarwal, Albert Cohen, Ramakrishna Upadrasta. CC 2023.
- Pembelajaran Penguatan Berbantuan Distribusi Loop untuk Lokalitas dan Vektorisasi - Shalini Jain, S. VenkataKeerthy, Rohit Aggarwal, Tharun Kumar Dangeti, Dibyendu Das, Ramakrishna Upadrasta. Lokakarya HPC LLVM 2022.
- Menemukan algoritma perkalian matriks yang lebih cepat dengan pembelajaran penguatan - Fawzi, Alhussein, Matej Balog, Aja Huang, Thomas Hubert, Bernardino Romera-Paredes, Mohammadamin Barekatain, Alexander Novikov dkk. Alam 2022
- Lingkungan Pembelajaran Penguatan untuk Optimasi Polihedral - Alexander Brauckmann, Andrés Goens, Jeronimo Castrillon. PAKTA, 2021.
- Teknik Kompiler Bertenaga AI untuk Optimasi Kode DL - Sanket Tavarageri, Gagandeep Goyal, Sasikanth Avancha, Bharat Kaul, Ramakrishna Upadrasta. Arxiv.org, 2021.
- VeGen: Generator Vektor untuk SIMD dan Selanjutnya - Yishen Chen, Charith Mendis, Michael Carbin, Saman Amarasinghe. ASPLOS 2021.
- Algoritma Pewarnaan Grafik Hibrid Berbasis Deep Learning untuk Alokasi Register - Dibyendu Das, Shahid Asghar Ahmad, Kumar Venkataramanan. Lokakarya HPC LLVM, 2020.
- NeuroVectorizer: vektorisasi ujung ke ujung dengan pembelajaran penguatan mendalam - Ameer Haj-Ali, Nesreen K. Ahmed, Ted Willke, Yakun Sophia Shao, Krste Asanovic, dan Ion Stoica. CGO 2020.
- Melepaskan Kekuatan Pembelajaran: Pendekatan Berbasis Pembelajaran yang Ditingkatkan untuk Terjemahan Biner Dinamis - Changheng Song, Wenwen Wang, Pen-Chung Yew, Antonia Zhai, Weihua Zhang. USENIX ATC 2019.
- Penyusun Vektorisasi Otomatis dengan Pembelajaran Imitasi - Charith Mendis, Cambridge Yang, Yewen Pu, Saman P. Amarasinghe, Michael Carbin. NeuroIPS 2019.
- Eksplorasi Multi-tujuan untuk Keputusan Optimasi Praktis dalam Terjemahan Biner - Sunghyun Park, Youfeng Wu, Janghaeng Lee, Amir Aupov, dan Scott Mahlke. Transaksi ACM pada Sistem Komputasi Tertanam (TECS), 2019.
- Konstruksi otomatis heuristik inlining menggunakan pembelajaran mesin. - Sameer Kulkarni, John Cavazos, Christian Wimmer, dan Douglas Simon. CGO 2013.
- Penyetelan otomatis heuristik inlining - John Cavazos dan Michael O'Boyle. SC 2005.
- Mendorong heuristik untuk memutuskan apakah akan menjadwalkan - John Cavazos dan J. Eliot B. Moss. PLDI 2003.
- Pengoptimalan meta: Meningkatkan heuristik kompiler dengan pembelajaran mesin - Mark Stephenson, Saman Amarasinghe, Martin Martin, dan Una-May O'Reilly. PLDI 2003.
- Belajar menjadwalkan kode garis lurus - J. Eliot B. Moss, Paul E. Utgoff, John Cavazos, Doina Precup, Darko Stefanovic, Carla E. Brodley, dan David Scheeff. NeuroIPS 1998.
Penyetelan Otomatis dan Eksplorasi Ruang Desain
- Penyetelan Otomatis Kernel GPU yang Dipercepat untuk Komputasi Tensor - Chendi Li dan Yufan Xu dan Sina Mahdipour Saravani dan P. Sadayappan. ICS 2024.
- Mengungkap Heuristik Kompiler melalui Penemuan dan Optimasi Otomatis - Volker Seeker, Chris Cummins, Murray Cole, Björn Franke, Kim Hazelwood, Hugh Leather. CGO 2024.
- Algoritma Pencarian Tetesan untuk Penjadwalan Kernel - Michael Canesche, Vanderson M. Rosario, Edson Borin, Fernando Magno Quintão Pereira. ACM TACO 2024
- BaCO: Kerangka Optimasi Kompiler Bayesian yang Cepat dan Portabel - Erik Hellsten, Artur Souza, Johannes Lenfers, Rubens Lacouture, Olivia Hsu, Adel Ejjeh, Fredrik Kjolstad, Michel Steuwer, Kunle Olukotun, Luigi Nardi. ASPLOS 2024.
- (De/Re)-Komposisi Dinyatakan Secara Sistematis melalui Jadwal Berbasis MDH - Ari Rasch, Richard Schulze, Denys Shabalin, Anne Elster, Sergei Gorlatch, Mary Hall. CC 2023.
- Konvolusi Penyetelan Otomatis Lebih Mudah Dari yang Anda Pikirkan - Nicolas Tollenaere, Guillaume Iooss, Stéphane Pouget, Hugo Brunie, Christophe Guillon, Albert Cohen, P. Sadayappan, Fabrice Rastello. ACM TACO 2022.
- Transfer-Tuning: Menggunakan Kembali Jadwal Otomatis untuk Pembuatan Kode Program Tensor yang Efisien - Perry Gibson, Jose Cano. PAKTA 2022.
- Sekilas: Penyematan Matematis Spesifikasi Perangkat Keras untuk Kompilasi Neural - Byung Hoon Ahn, Sean Kinzer, Hadi Esmaeilzadeh. DAC 2022.
- Tuner sekali pakai untuk penyusun pembelajaran mendalam - Jaehun Ryu, Eunhyeok Park, Hyojin Sung. CC 2022.
- Pendekatan Fleksibel untuk Autotuning Kompiler Pembelajaran Mesin Multi-Pass - Phitchaya Mangpo Phothilimthana, Amit Sabne, Nikhil Sarda, Karthik Srinivasa Murthy, Yanqi Zhou, Christof Angermueller, Mike Burrows, Sudip Roy, Ketan Mandke, Rezsa Farahani, Yu Emma Wang, Berkin Ilbeyi , Blake Hechtman, Bjarke Roune, Shen Wang, Yuanzhong Xu, dan Samuel J. Kaufman. PAKTA 2021.
- TASO: Mengoptimalkan Komputasi Pembelajaran Mendalam dengan Pembuatan Substitusi Grafik Otomatis - Zhihao Jia, Oded Padon, James Thomas, Todd Warszawski, Matei Zaharia, dan Alex Aiken. ACM SOSP 2019.
- Pembelajaran Nilai untuk Optimalisasi Throughput Beban Kerja Neural Dalam - Benoit Steiner, Chris Cummins, Horace He, Hugh Leather. MLS 2021.
- DynaTune: Optimasi Program Tensor Dinamis dalam Kompilasi Jaringan Neural Dalam - Minjia Zhang, Menghao Li, Chi Wang, Mingqin Li. ICLR 2021.
- Mengoptimalkan Penempatan Memori menggunakan Pembelajaran Penguatan Grafik Evolusioner - Shauharda Khadka, Estelle Aflalo, Mattias Mardar, Avrech Ben-David, Santiago Miret, Shie Mannor, Tamir Hazan, Hanlin Tang, Somdeb Majumdar. ICLR 2021.
- GPTune: Pembelajaran Multitugas untuk Aplikasi Exascale Autotuning - Yang Liu, Wissam M. Sid-Lakhdar, Osni Marques, Xinran Zhu, Chang Meng, James W. Demmel, Xiaoye S. Li. PPoPP 2021.
- ApproxTuner: Kompiler dan Sistem Runtime untuk Pendekatan Adaptif - Hashim Sharif, Yifan Zhao, Maria Kotsifakou, Akash Kothari, Ben Schreiber, Elizabeth Wang, Yasmin Sarita, Nathan Zhao, Keyur Joshi, Vikram S. Adve, Sasa Misailovic, Sarita Adve. PPoPP 2021.
- Penyetelan Otomatis yang Efisien pada Program Paralel dengan Parameter Penyetelan Saling Bergantung melalui Kerangka Penyetelan Otomatis (ATF) - Ari Rasch, Richard Schulze, Michel Steuwer, Sergei Gorlatch. ACM TACO 2021.
- Chameleon: Optimasi Kode Adaptif untuk Kompilasi Jaringan Neural Dalam yang Dipercepat - Byung Hoon Ahn, Prannoy Pilligundla, Amir Yazdanbakhsh, Hadi Esmaeilzadeh. ICLR 2020.
- Ansor: Menghasilkan Program Tensor Berkinerja Tinggi untuk Pembelajaran Mendalam - Lianmin Zheng, Chengfan Jia, Minmin Sun, Zhao Wu, Cody Hao Yu, Ameer Haj-Ali, Yida Wang, Jun Yang, Danyang Zhuo, Koushik Sen, Joseph E. Gonzalez, Ion Stoika. OSDI 2020. (slide, presentasi)
- Autotuner Algoritma Berbasis Pola untuk Pemrosesan Grafik pada GPU - Ke Meng, Jiajia Li, Guangming Tan, Ninghui Sun. PPoPP 2019.
- FBNet: Desain ConvNet Efisien yang Sadar Perangkat Keras melalui Pencarian Arsitektur Neural yang Dapat Dibedakan - Bichen Wu, Xiaoliang Dai, Peizhao Zhang, Yanghan Wang, Fei Sun, Yiming Wu, Yuandong Tian, Peter Vajda, Yangqing Jia, Kurt Keutzer. CVPR 2019.
- TVM: Kompiler pengoptimalan ujung-ke-ujung otomatis untuk pembelajaran mendalam - Tianqi Chen, Thierry Moreau, Ziheng Jiang, Lianmin Zheng, Eddie Yan, Haichen Shen, Meghan Cowan dkk., OSDI 2018
- BOAT: Membangun auto-tuner dengan optimasi Bayesian terstruktur - Valentin Dalibard, Michael Schaarschmidt, dan Eiko Yoneki, WWW 2017.
- Cobayn: Kerangka autotuning kompiler menggunakan jaringan bayesian - Amir H. Ashouri, Giovanni Mariani, Gianluca Palermo, Eunjung Park, John Cavazos, dan Cristina Silvano, ACM Transactions on Architecture and Code Optimization (TACO), 2016.
- Pilihan algoritmik penyetelan otomatis untuk sensitivitas masukan - Yufei Ding, Jason Ansel, Kalyan Veeramachaneni, Xipeng Shen, Una-May O'Reilly, dan Saman Amarasinghe. PLDI 2015
- Cepat: Kerangka kerja penyetelan otomatis stensil cepat berdasarkan model ruang solusi optimal - Yulong Luo, Guangming Tan, Zeyao Mo, dan Ninghui Sun. Transaksi ACM pada Arsitektur dan Optimasi Kode (TACO), 2015.
- Performa GPU dan penyetelan daya menggunakan pohon regresi - Wenhao Jia, Elba Garza, Kelly A. Shaw, dan Margaret Martonosi. SC 2015.
- Pengoptimalan termal antar dan intra-aplikasi berbasis pembelajaran penguatan untuk peningkatan seumur hidup sistem multiinti - Anup K Das, Rishad Ahmed Shafik, Geoff V Merrett, Bashir M Al-Hashimi, Akash Kumar, Bharadwaj Veeravalli. DAK 2014
- Opentuner: Kerangka kerja yang dapat diperluas untuk penyetelan otomatis program - Jason Ansel, Shoaib Kamil, Kalyan Veeramachaneni, Jonathan Ragan-Kelley, Jeffrey Bosboom, Una-May O'Reilly, dan Saman Amarasinghe. PAKTA 2014
- Menjinakkan kompleksitas I/O paralel dengan penyetelan otomatis - Babak Behzad, Huong Vu Thanh Luu, Joseph Huchette, Surendra Byna, Ruth Aydt, Quincey Koziol, dan Marc Snir. SC 2013.
- Kerangka kerja penyetelan otomatis multi-tujuan untuk kode paralel - Herbert Jordan, Peter Thoman, Juan J. Durillo, Simone Pellegrini, Philipp Gschwandtner, Thomas Fahringer, dan Hans Moritsch. SC 2012.
- Pengoptimalan berbasis bandit pada grafik dengan aplikasi penyetelan kinerja perpustakaan - Frédéric De Mesmay, Arpad Rimmel, Yevgen Voronenko, dan Markus Püschel. ICML 2009.
- Menggabungkan model dan penelusuran empiris terpandu untuk mengoptimalkan berbagai tingkat hierarki memori - Chun Chen, Jacqueline Chame, dan Mary Hall. CGO 2005
- Harmoni aktif: menuju penyetelan performa otomatis - Cristian Tapus, I-Hsin Chung, Jeffrey K. Hollingsworth. SC 2002
Pemetaan Paralelisme dan Penjadwalan Tugas
- Eksplorasi model Jaringan Neural Konvolusional untuk klasifikasi kode sumber - Francesco Barchi, Emanuele Parisi, Gianvito Urgese, Elisa Ficarra, dan Andrea Acquaviva. Penerapan Rekayasa Kecerdasan Buatan, Januari 2021.
- Autopilot: penskalaan otomatis beban kerja di Google - Krzysztof Rzadca, Pawel Findeisen, Jacek Swiderski, Przemyslaw Zych, Przemyslaw Broniek, Jarek Kusmierek, Pawel Nowak, Beata Strack, Piotr Witusowski, Steven Hand, John Wilkes. EuroSys 2020.slide
- Memodelkan dan mengoptimalkan efek NUMA dan pengambilan awal dengan pembelajaran mesin - Isaac Sánchez Barrera, David Black-Schaffer, Marc Casas, Miquel Moretó, Anastasiia Stupnikova, dan Mihail Popov. ICS 2020.
- Ketenangan: Menyeimbangkan paralelisme tingkat thread dan performa sistem memori di GPU menggunakan pembelajaran mesin - Saumay Dublish, Vijay Nagarajan, dan Nigel Tophama. HPCA 2019.
- Penempatan data dan thread dalam arsitektur NUMA: Pendekatan pembelajaran statistik - Nicolas Denoyelle, Brice Goglin, Emmanuel Jeannot, dan Thomas Ropars. ICPP 2019.
- Pemetaan Kode dalam Platform Heterogen Menggunakan Pembelajaran Mendalam dan LLVM-IR - Francesco Barchi, Gianvito Urgese, Enrico Macii, dan Andrea Acquaviva. DAK 2019.
- Pengoptimalan adaptif untuk program OpenCL pada sistem heterogen tertanam - Ben Taylor, Vicent Sanz Marco, dan Zheng Wang. LCT 2017.
- Meningkatkan throughput aplikasi percikan melalui lokasi tugas sadar memori: Campuran pendekatan pakar - Vicent Sanz Marco, Ben Taylor, Barry Porter, dan Zheng Wang. Perangkat Tengah 2017.
- Penjadwalan multitugas cerdas untuk program OpenCL pada platform heterogen CPU/GPU - Yuan Wen, Zheng Wang, dan Michael FP O'Boyle. HiPC 2015.
- Quasar: manajemen cluster yang hemat sumber daya dan sadar QoS - Christina Delimitrou, dan Christos Kozyrakis. ASPLOS 2014.
- Pemetaan program paralel data otomatis dan portabel untuk membuka sistem heterogen berbasis GPU - Zheng Wang, Dominik Grewe, dan Michael O'boyle. Transaksi ACM pada Arsitektur dan Optimasi Kode (TACO), 2014.
- Mengintegrasikan Deteksi Paralelisme Berbasis Profil dan Pemetaan Berbasis Pembelajaran Mesin - Zheng Wang, Georgios Tournavitis, Björn Franke, dan Michael FP O'boyle. Transaksi ACM pada Arsitektur dan Optimasi Kode (TACO), 2014.
- Pertunjukan Portabel pada Arsitektur Heterogen - Phitchaya Mangpo Phothilimthana, Jason Ansel, Jonathan Ragan-Kelley, Saman Amarasinghe. ASPLOS 2013.
- Pemetaan paralelisme yang cerdas dan adaptif dengan adanya beban kerja eksternal - Murali Krishna Emani, Zheng Wang, dan Michael O'Boyle. CGO 2013.
- Mempartisi paralelisme streaming untuk multi-core: pendekatan berbasis pembelajaran mesin - Zheng Wang dan Michael O'Boyle. PAKTA 2010.
- Qilin: mengeksploitasi paralelisme pada multiprosesor heterogen dengan pemetaan adaptif - Chi-Keung Luk, Sunpyo Hong, dan Hyesoon Kim. MIKRO 2009.
- Memetakan paralelisme ke multi-core: pendekatan berbasis pembelajaran mesin - Zheng Wang dan Michael O'Boyle. PPoPP 2009.
Optimasi khusus domain
- Pelihat: Pemilihan Kernel Runtime Prediktif untuk Masalah Tidak Teratur - Ryan Swann, Muhammad Osama, Karthik Sangaiah, Jalal Mahmud. CGO 2024
- Optimasi Program Tensor dengan Program Probabilistik - Junru Shao, Xiyou Zhou, Siyuan Feng, Bohan Hou, Ruihang Lai, Hongyi Jin, Wuwei Lin, Masahiro Masuda, Cody Hao Yu, Tianqi Chen. NeuroIPS 2022
- moTuner: pendekatan penyetelan otomatis berbasis kompiler untuk operator presisi campuran - Zewei Mo, Zejia Lin, Xianwei Zhang, Yutong Lu. CF 2022
- Kolase: Integrasi Otomatis Backend Pembelajaran Mendalam - Byungsoo Jeon, Sunghyun Park, Peiyuan Liao, Sheng Xu, Tianqi Chen, Zhihao Jia. PAKTA 2022
- Mempelajari Invarian Loop Nonlinier dengan Jaringan Logika Kontinu Berpagar - J. Yao, G. Ryan, J. Wong, S. Jana, dan R. Gu. PLDI 2020.
- Alokasi Memori Berbasis Pembelajaran untuk Beban Kerja Server C++ - Maas, Martin, David G. Andersen, Michael Isard, Mohammad Mahdi Javanmard, Kathryn S. McKinley, dan Colin Raffel. ASPLOS 2020.presetnation
- Menjembatani kesenjangan antara pembelajaran mendalam dan pemilihan format matriks renggang - Yue Zhao, Jiajia Li, Chunhua Liao, dan Xipeng Shen. PPoPP 2018.
- Camel: Pengoptimalan Energi yang Cerdas dan Adaptif untuk Interaksi Web Seluler - Jie Ren, Y. Lu, Petteri Nurmi, Xiaoming Wang, Miao Ma, Ling Gao, Zhanyong Tang, Jie Zheng, dan Zheng Wang. INFOKOM 2020.
- Mengoptimalkan penyortiran dengan algoritma genetika - Xiaoming Li, Maria Jesus Garzaran, dan David Padua. CGO 2005.
Bahasa dan Kompilasi
- (De/Re)-Komposisi Komputasi Data-Paralel melalui Homomorfisme Multidimensi - Ari Rasch, TOPLAS 2024.
- Halide: bahasa dan kompiler untuk mengoptimalkan paralelisme, lokalitas, dan komputasi ulang dalam jalur pemrosesan gambar - Jonathan Ragan-Kelley, Connelly Barnes, Andrew Adams, Sylvain Paris, Frédo Durand, dan Saman Amarasinghe, PLDI 2013.
- PetaBricks: bahasa dan kompiler untuk pilihan algoritmik - Jason Ansel, Cy Chan, Yee Lok Wong, Marek Olszewski, Qin Zhao, Alan Edelman, dan Saman Amarasinghe. PLDI 2009.
- Mencapai Kinerja Tinggi dengan Cara Fungsional: Mutiara Fungsional dalam Mengekspresikan Optimasi Kinerja Tinggi sebagai Strategi Penulisan Ulang - Bastian Hagedorn, Johannes Lenfers, Thomas K{oe}hler, Xueying Qin, Sergei Gorlatch, dan Michel Steuwer. Prosiding ACM Bahasa Pemrograman 2020.
Pengurangan Ukuran Kode
- Mempelajari Perintah Lulus Kompiler menggunakan Coreset dan Prediksi Nilai yang Dinormalisasi - Youwei Liang, Kevin Stone, Ali Shameli, Chris Cummins, Mostafa Elhoushi, Jiadong Guo, Benoit Steiner, Xiaomeng Yang, Pengtao Xie, Hugh Leather, Yuandong Tian. ICML 2023.
- POSET-RL: Pengurutan fase untuk Mengoptimalkan Ukuran dan Waktu Eksekusi menggunakan Reinforcement Learning - Shalini Jain, Yashas Andaluri, S. VenkataKeerthy, Ramakrishna Upadrasta. ISPASS 2022.
- Menjelajahi ruang rangkaian pengoptimalan untuk pengurangan ukuran kode: wawasan dan alat - Anderson Faustino da Silva, Bernardo NB de Lima, dan Fernando Magno Quintao Pereira. CC 2021. Kode dan Data
- Menggunakan pembelajaran mesin untuk memprediksi dampak ukuran kode heuristik duplikasi dalam kompiler dinamis - Raphael Mosaner, David Leopoldseder, Lukas Stadler, dan Hanspeter Mössenböck. MPLR 2021.
- ANGHABENCH: Suite dengan Satu Juta Tolok Ukur C yang Dapat Dikompilasi untuk Pengurangan Ukuran Kode - Anderson Faustino da Silva, Bruno Conde Kind, Jose Wesley de Souza Magalhaes, Jeronimo Nunes Rocha, Breno Campos Ferreira Guimaraes, Fernando Magno Quintao Pereira. CGO 2021. Kode dan Data
- Debloating Perangkat Lunak Terpandu Pembelajaran Penguatan - Nham Le Van, Ashish Gehani, Arie Gurfinkel, Susmit Jha, dan Jorge A. Navas. MLS 2019.
- Mengoptimalkan pengurangan ruang kode menggunakan algoritma genetika - Keith D. Cooper, Philip J. Schielke, dan Devika Subramanian. LCT 1999.
Model Biaya dan Kinerja
- TLP: Model Biaya Berbasis Pembelajaran Mendalam untuk Penyetelan Program Tensor - Yi Zhai, Yu Zhang, Shuo Liu, Xiaomeng Chu, Jie Peng, Jianmin Ji, Yanyong Zhang, ASPLOS, 2023.
- Detektif Kinerja: Pengurangan Otomatis Model Kinerja yang Murah dan Akurat - Larissa Schmid, Marcin Copik, Alexandru Calotoiu, Dominik Werle, Andreas Reiter, Michael Selzer, Anne Koziolek, Torsten Hoefler, ICS, 2022.
- Prediksi Kinerja Berbasis Jaringan Neural untuk Migrasi Tugas pada S-NUCA Many-Cores - Martin Rapp, Anuj Pathania, Tulika Mitra, Jörg Henkel, IEEE Transactions on Computers, 2021.
- Model Biaya Berbasis Pembelajaran Mendalam untuk Optimasi Kode Otomatis - Riyadh Baghdadi, Massinissa Merouani, Mohamed-Hicham LEGHETTAS, Kamel Abdous, Taha Arbaoui, Karima BENATCHBA, Saman amarasinghe, MLSys 2021
- Analisis Struktur Kode Komparatif menggunakan Pembelajaran Mendalam untuk Prediksi Kinerja - Nathan Pinnow, Tarek Ramadan, Tanzima Z. Islam, Chase Phelps, Jayaraman J. Thiagarajan, ISPASS 2021
- Mengekstraksi Model Kinerja Bersih dari Program Tercemar - Marcin Copik, Alexandru Calotoiu, Tobias Grosser, Nicolas Wicki, Felix Wolf, Torsten Hoefler. PPoPP 2021.
- PMEvo: Inferensi Portabel Pemetaan Port untuk Prosesor Rusak dengan Optimasi Evolusioner - Fabian Ritter, Sebastian Hack. PLDI 2020.
- Metode Pembelajaran Aktif untuk Pemodelan Empiris dalam Performance Tuning - Jiepeng Zhang, Jingwei Sun, Wenju Zhou, Guangzhong Sun. IPDPS 2020.
- Belajar Mengoptimalkan Halida dengan Pencarian Pohon dan Program Acak - Andrew Adams, Karima Ma, Luke Anderson, Riyadh Baghdadi, Tzu-Mao Li, Michael Gharbi, Benoit Steiner, Steven Johson, Kayvon Fatahalian, Fredo Durand, Jonathan Ragan-Kelley. Grafik Trans ACM, 2019.
- Ithemal: Estimasi throughput blok dasar yang akurat, portabel, dan cepat menggunakan jaringan saraf dalam - Charith Mendis, Alex Renda, Saman Amarasinghe, dan Michael Carbin. ICML 2019.
- Absinthe: Mempelajari Model Kinerja Analitik untuk Memadukan dan Menyatukan Kode Stensil dalam Satu Pemotretan - Tobias Gysi, Tobias Grosser, dan Torsten Hoefler. PAKTA 2019.
- Memprediksi beban kerja atau performa CPU baru dengan menganalisis kumpulan data publik - Yu Wang, Victor Lee, Gu-Yeon Wei, dan David Brooks. Transaksi ACM pada Arsitektur dan Optimasi Kode (TACO), 2019.
- Pembuatan otomatis model pemilihan ukuran ubin - Tomofumi Yuki, Lakshminarayanan Renganarayanan, Sanjay Rajopadhye, Charles Anderson, Alexandre E. Eichenberger, dan Kevin O'Brien. CGO 2010.
- Model empiris sensitif mikroarsitektur untuk optimasi kompiler - Kapil Vaswani, Matthew J. Thazhuthaveetil, YN Srikant, dan PJ Joseph. CGO 2007.
- Penduga statis yang akurat untuk pengoptimalan program - Tim A. Wagner, Vance Maverick, Susan L. Graham, dan Michael A. Harrison. PLDI 1994.
Representasi Program Pembelajaran
- Penyematan Kinerja: Pendekatan Penyetelan Transfer Berbasis Kesamaan untuk Optimasi Kinerja - L Trümper, T Ben-Nun, P Schaad, A Calotoiu, T Hoefler. ICS 2023.
- Meningkatkan analisis biner lintas platform menggunakan pembelajaran representasi melalui penyelarasan grafik - Geunwoo Kim, Sanghyun Hong, Michael Franz, Dokyung Song. ISSTA 2022.
- Representasi Program untuk Kompilasi Prediktif: Keadaan di Awal 20-an - Anderson Faustino da Silva, Edson Borin, Fernando Magno Quintao Pereira, Nilton Luiz Queiroz Junior dan Otavio Oliveira Napoli. JCL 2022. Kode dan Data
- Analisis Struktur Kode Komparatif menggunakan Pembelajaran Mendalam untuk Prediksi Kinerja - DNathan Pinnow, Tarek Ramadan, Tanzima Z. Islam, Chase Phelps, Jayaraman J. Thiagarajan. ISPASS 2021.
- GraphCodeBERT: Representasi Kode Pra-pelatihan dengan Aliran Data - Daya Guo, Shuo Ren, Shuai Lu, Zhangyin Feng, Duyu Tang, Shujie LIU, Long Zhou, Nan Duan, Alexei Svyatkovskiy, Shengyu Fu, Michele Tufano, Shao Kun Deng, Colin Clement , Dawn Drain, Neel Sundaresan, Jian Yin, Daxin Jiang, Ming Zhou. ICLR 2021.
- CodeBERT:Model Terlatih untuk Pemrograman dan Bahasa Alami - Zhangyin Feng, Daya Guo, Duyu Tang, Nan Duan, Xiaocheng Feng, Ming Gong, Linjun Shou, Bing Qin, Ting Liu, Daxin Jiang, Ming Zhou. EMNLP 2020.
- IR2VEC: Penyematan Program Scalable Berbasis IR LLVM - S. VenkataKeerthy, Rohit Aggarwal, Shalini Jain, Maunendra Sankar Desarkar, Ramakrishna Upadrasta dan YN Srikant. TACO 2020.
- Pemodelan Struktur Program Mendalam Melalui Pembelajaran Berbasis Grafik Multi-Relasional - Guixin Ye, Zhanyong Tang, Huanting Wang, Jianbin Fang, Songfang Huang dan Zheng Wang. PAKTA 2020.
- Model Relasional Global Kode Sumber - Vincent J. Hellendoorn, Charles Sutton, Rishabh Singh, Petros Maniatis, David Bieber, ICLR 2020. (Data dan Kode)
- Mempelajari Penyematan Program Semantik dengan Jaringan Neural Interval Grafik - Yu Wang, Ke Wang, Fengjuan Gao, dan Linzhang Wang. OOPSLA 2020.
- Flow2Vec: Penyematan Kode Tepat Berbasis Aliran Nilai - Yulei Sui, Xiao Cheng, Guanqin Zhang, dan Haoyu Wang. OOPSLA 2020.
- MISIM: Sistem Kemiripan Kode Neural Ujung-ke-Ujung - Fangke Ye, Shengtian Zhou, Anand Venkat, Ryan Marcus, Nesime Tatbul, Jesmin Jahan Tithi, Paul Petersen, Timothy Mattson, Tim Kraska, Pradeep Dubey, Vivek Sarkar dan Justin Gottschlich. arXiv 2020.
- Penyematan program semantik yang tercampur dan tepat - Ke Wang dan Zhendong Su. PLDI 2020.
- LambdaNet: Inferensi Tipe Probabilistik menggunakan Graph Neural Networks - Jiayi Wei, Maruth Goyal, Greg Durrett, dan Isil Dillig. ICLR 2020.
- Representasi grafik berbasis kompiler untuk model kode pembelajaran mendalam - Alexander Brauckmann, Andrés Goens, Sebastian Ertel, dan Jeronimo Castrillon. CC 2020.
- Pemodelan Kode Generatif dengan Grafik - Marc Brockschmidt, Miltos Allamanis, Alexander L. Gaunt, dan Oleksandr Polozov. ICLR 2019.
- code2seq: Menghasilkan urutan dari representasi kode terstruktur - Uri Alon, Shaked Brody, Omer Levy, dan Eran Yahav. ICLR 2019.
- code2vec: Mempelajari representasi kode terdistribusi - Uri Alon, Meital Zilberstein, Omer Levy, dan Eran Yahav. POPL 2019.
- COSET: Tolok Ukur untuk Mengevaluasi Penyematan Program Neural - Ke Wang, Mihai Christodorescu. arXiv 2019.
- Belajar Merepresentasikan Program dengan Grafik - Miltiadis Allamanis, Marc Brockschmidt, dan Mahmoud Khademi. ICLR 2018.
- Pemahaman Kode Neural: Representasi Semantik Kode yang Dapat Dipelajari - Tal Ben-Nun, Alice Shoshana Jakobovits, dan Torsten Hoefler. NeuroIPS 2018.
- Pembelajaran mendalam heuristik pengoptimalan menyeluruh - Chris Cummins, Pavlos Petoumenos, Zheng Wang, dan Hugh Leather (slide). PAKTA 2017.
- Pengambilan sampel program sadar semantik - Pratiksha Thaker, Daniel Tarlow, dan Marc Brockschmidt. NeuroIPS 2017.
- DeepCoder: Belajar menulis program - Matej Balog, Alexander L. Gaunt, Marc Brockschmidt, Sebastian Nowozin, dan Daniel Tarlow. ICLR 2017.
- Jaringan saraf konvolusional melalui struktur pohon untuk pemrosesan bahasa pemrograman - Lili Mou, Ge Li, Lu Zhang, Tao Wang, dan Zhi Jin. AAAI 2016.
- Jaringan Perhatian Konvolusional untuk Peringkasan Ekstrim Kode Sumber - Miltos Allamanis, Hao Peng, dan Charles Sutton. ICML 2016.
- Model Generatif Terstruktur dari Kode Sumber Alam - Chris Maddison dan Daniel Tarlow. ICML 2014.
- Menggunakan karakterisasi program berbasis grafik untuk pemodelan prediktif - Eunjung Park, John Cavazos, dan Marco A. Alvarez. CGO 2011.
- Pembuatan fitur otomatis untuk kompilasi pengoptimalan berbasis pembelajaran mesin - Hugh Leather, Edwin Bonilla, dan Michael O'Boyle. CGO 2009.
- Kerangka Berbasis Permainan untuk Membandingkan Pengklasifikasi dan Penghindar Program - Damasio dari Thailand, Michael Canesche, Vinicius Pacheco, Anderson Faustino da Silva, Marcus Botacin dan Fernando Magno Quintao Pereira. CGO 2023. Kode dan Data
Mengaktifkan ML di Kompiler dan Optimasi Sistem
- Meningkatkan Kekokohan Model Prediktif Waktu Penerapan untuk Analisis dan Pengoptimalan Kode - Huanting Wang, Patrick Lenihan, Zheng Wang. CGO 2025. (Kode)
- Dialek Transformasi MLIR - Kompiler Anda lebih kuat dari yang Anda kira - Martin Paul Lücke, Oleksandr Zinenko, William S. Moses, Michel Steuwer, Albert Cohen. Arxiv 2024.
- Kompiler Model Bahasa Meta Besar: Model Dasar Optimasi Kompiler - Chris Cummins, Volker Seeker, Dejan Grubisic, Baptiste Roziere, Jonas Gehring, Gabriel Synnaeve, Hugh Leather. Arxiv 2024.
- Optimasi Kompiler Berkemampuan 700 ML Berikutnya - S. VenkataKeerthy, Siddharth Jain, Umesh Kalvakuntla, Pranav Sai Gorantla, Rajiv S Chitale, Eugene Brevdo, Albert Cohen, Mircea Trofin, Ramakrishna Upadrasta. CC 2024.
- BenchPress: Generator Benchmark Aktif yang Mendalam - Foivos Tsimpourlas, Pavlos Petoumenos, Min Xu, Chris Cummins, Kim Hazelwood, Ajitha Rajan, Hugh Leather. PAKTA 2022 (kode)
- Mengotomatiskan Desain Arsitektur Pembelajaran Penguatan untuk Optimasi Kode - Huanting Wang, Zhanyong Tang, Cheng Zhang, Jiaqi Zhao, Chris Cummins, Hugh Leather, Zheng Wang. CC 2022 (kode)
- Mempelajari Representasi Semantik untuk Memverifikasi Desain Perangkat Keras - Shobha Vasudevan, Wenjie (Joe) Jiang, David Bieber, Rishabh Singh, hamid shojaei, C. Richard Ho, Charles Sutton. NeuroIPS 2021
- Pembuatan Kode yang Dapat Dikomposisi dan Modular di MLIR: Pendekatan Terstruktur dan Dapat Ditargetkan Ulang untuk Konstruksi Kompiler Tensor - Nicolas Vasilache, Oleksandr Zinenko, Aart JC Bik, Mahesh Ravishankar, Thomas Raoux, Alexander Belyaev, Matthias Springer, Tobias Gysi, Diego Caballero, Stephan Herhut, Stella Laurenzo, Albert Cohen. arXiV 2022
- Ko-evolusi mendalam berbasis NLP untuk mensintesis analisis kode dari bahasa alami - Zifan Nan, Hui Guan, Xipeng Shen, Chunhua Liao. CC 2021
- MLGO: Kerangka Pengoptimalan Kompiler Terpandu Pembelajaran Mesin - Mircea Trofin, Yundi Qian, Eugene Brevdo, Zinan Lin, Krzysztof Choromanski, David Li. arXiv. Kode
- Menuju Pemahaman yang Lebih Baik tentang Penyetelan Otomatis Kotak Hitam: Analisis Perbandingan untuk Sistem Penyimpanan - Zhen Cao, Vasily Tarasov, Sachin Tiwari, dan Erez Zadok. ATC 2018.
- Mensintesis tolok ukur untuk pemodelan prediktif - Chris Cummins, Pavlos Petoumenos, Zheng Wang, dan Hugh Leather (Slide). CGO 2017.
- Meminimalkan biaya kompilasi berulang dengan pembelajaran aktif - William Ogilvie, Pavlos Petoumenos, Zheng Wang, dan Hugh Leather. CGO 2017.
- Vespa: Profil statis untuk optimasi biner - Angelica Aparecida Moreira, Guilherme Ottoni, dan Fernando Magno Quintao Pereira. Oopsla 2021. Kode dan data
- Pemetaan Perhitungan dalam Sistem Multicore Heterogen dengan Regresi Statistik pada Input Program - Junio Cezar Ribeiro da Silva, Lorena Leao, Vinicius Petrucci, Abdoulaye Gamatie dan Fernando Magno Quintao Pereira. TECS 2021.
Pemodelan/analisis memori/cache
- Mengoptimalkan Pemetaan Memori Menggunakan Pembelajaran Penguatan Deep - Pengming Wang, Mikita Sazanovich, Berkin Ilbeyi, Phitchaya Mangpo Phothilimthana, Manish Purohit, Han Yang Tay, Ngân Vũ, Miaosen Wang, Cosmin Paduraru, Edouard Leurent, Antuling, Junge Wang, Cosmin Paduraru, Edouard Leurent, Antinsen, Jeghov, Junge Cosmin Paduraru, Edouard Leurent, AntoLov, Jegnov, Jeghov, Cosmin Paduraru, Edouard Leurent, Annonsen, Jeghov, Cosmin Paduraru, Edouard Leurent, Antuling, Jeghov, Cosmin Paduraru, EDOUARD LEURENT, ANTONER ZHEROV, JEGHNEOV, JEGHROV Tung, Paula Kurylowicz, Kieran Milan, Oriol Vinyals, Daniel J. Mankowitz. ARXIV 2023.
- Mempelajari Pola Akses Memori - Milad Hashemi, Kevin Swersky, Jamie A. Smith, Grant Ayers, Heiner Litz, Jichuan Chang, Christos Kozyrakis, Parthasarathy Ranganathan. ICML 2018
- Prediksi statis toko bisu - Fernando Magno Quintao Pereira, Guilherme Vieira Leobas dan Abdoulaye Gamatie. Taco 2019. Kode dan Data
Buku
- Tuning otomatis kompiler menggunakan pembelajaran mesin - Amir H. Ashouri, Gianluca Palermo, John Cavazos, dan Cristina Silvano. Springer 2018.
- Tuning Otomatis Perangkat Lunak-Dari konsep hingga hasil canggih-K Naono, K Teranishi, J Cavazos, dan R Suda. Springer 2010.
Pembicaraan dan tutorial
- Saman Amarasinghe, Compiler 2.0: Menggunakan pembelajaran mesin untuk memodernisasi teknologi kompiler. LCT 2020.
- Amir Ashouri, Autotuning Kompiler Menggunakan Pembelajaran Mesin: Ulasan Canggih (Slide). Universitas Politeknik Milan 2018.
Perangkat lunak
- Prom - Toolkit Python untuk membantu mengidentifikasi kesalahan prediksi ML setelah penempatan (kertas).
- ML-Compiler-Bridge-Perpustakaan ke Kompiler Antarmuka dan Model ML untuk ML-Enabled Compiler Optimizations (Paper).
- Supersonic - Otomatis Desain Arsitektur Pembelajaran Penguatan (kertas).
- CompilergyM - Lingkungan Pembelajaran Penguatan untuk Optimalisasi Kompiler (Kertas).
- Codebert - Model DNN pra -terlatih untuk bahasa pemrograman (kertas).
- IR2VEC - LLVM IR Program berbasis embeddings untuk pembelajaran mesin (kertas).
- Programl - LLVM dan XLA IR Representasi program untuk pembelajaran mesin (kertas).
- Neurovectorizer - Menggunakan pembelajaran penguatan dalam (RL) untuk memprediksi pragma kompiler vektorisasi yang optimal (kertas).
- TVM - Open Deep Learning Compiler Stack untuk CPU, GPU dan akselerator khusus (kertas; slide).
- CLGEN - Benchmark Generator Menggunakan LSTMS (kertas; slide).
- Cobayn - Autotuning kompiler menggunakan BNS (kertas).
- OpenTuner-Kerangka kerja untuk membangun Autotuners Program Multi-Objektif khusus domain (kertas; Slide)
- ONNX -MLIR - Representasi dan penurunan referensi model ONNX dalam infrastruktur kompiler MLIR (kertas).
- IREE - Kompiler Pembelajaran Mesin Berbasis MLIR dan Toolkit Runtime.
Tolok ukur dan dataset
- TENSET: Dataset kinerja program skala besar untuk kompiler tensor terpelajar - dataset catatan kinerja program tensor untuk enam platform perangkat keras yang umum digunakan (kertas).
- Beban kerja Alberta untuk SPEC CPU® 2017 Benchmark Suite - Beban kerja tambahan untuk SPEC CPU2017 Benchmark Suite.
- Project Codenet - Sampel kode yang ditulis dalam 50+ bahasa pemrograman, dijelaskan dengan info, seperti ukuran kode, jejak memori, waktu menjalankan CPU, dan status (tipe penerimaan/kesalahan)
- Codexglue - Dataset Benchmark Pembelajaran Mesin untuk Pemahaman dan Pembuatan Kode (Kertas)
- Anghabench - Suite dengan satu juta tolok ukur C (kertas) yang dapat dikompilasi (kertas)
- BHIVE - Kerangka Benchmark Suite dan Pengukuran untuk memvalidasi model kinerja blok dasar x86-64 (kertas).
- CBENCH - 32 C Tolok ukur dengan set data dan skrip driver.
- Polybench - 30 stensil dan tolok ukur linier -aljabar dengan set data dan skrip driver. Lihat juga: Versi GPU, Dataset Pra-Komputasi (Kertas).
- DeepDataFlow-File 469K LLVM-IR dan label analisis aliran data 8.6B untuk klasifikasi (kertas).
- DevMap - 650 Fitur Benchmark OpenCL dan Label Klasifikasi CPU/GPU (kertas; slide).
Konferensi
- Konferensi ACM SigPlan tentang Desain dan Implementasi Bahasa Pemrograman, PLDI
- Dukungan Arsitektur untuk Bahasa Pemrograman dan Sistem Operasi, ASPLOS
- ACM SigPlan Simposium tentang Prinsip dan Praktik Pemrograman Paralel, PPOPP
- Simposium Internasional tentang Pembuatan dan Optimalisasi Kode, CGO
- Konferensi Internasional tentang Arsitektur Paralel dan Teknik Kompilasi, Pakta
- Pemrograman, Sistem, Bahasa, dan Aplikasi yang Berorientasi Objek, Oopsla
- Konferensi Internasional tentang Konstruksi Kompiler, CC
- Konferensi Internasional tentang Superkomputer, IC
- Konferensi Internasional tentang Kinerja Tinggi dan Arsitektur Tertanam dan Kompiler, Hipeac
- Konferensi Internasional tentang Bahasa, Kompiler, dan Alat untuk Sistem Tertanam, LCT
- Konferensi Internasional tentang Perbatasan Komputasi, CF
- Simposium pemrosesan paralel dan terdistribusi internasional, IPDP
- Konferensi Internasional untuk Komputasi Kinerja Tinggi, Jaringan, Penyimpanan, dan Analisis, SC
- Lokakarya Pembelajaran dan Bahasa Pemrograman Mesin, MAPL
- Bahasa dan kompiler untuk komputasi paralel, LCPC
- Konferensi Internasional tentang Representasi Pembelajaran, ICLR
- Konferensi Pembelajaran dan Sistem Mesin, MLSYS
Jurnal
- Transaksi ACM tentang Arsitektur dan Optimalisasi Kode, Taco
Bagaimana Berkontribusi
Lihat Pedoman Kontribusi. TL; DR: Kirim salah satu pemelihara permintaan tarik.