컴파일러 및 프로그램 최적화를 위한 놀라운 기계 학습
컴파일러 및 프로그램 최적화에 기계 학습 기술을 적용하기 위한 훌륭한 연구 논문, 데이터 세트 및 도구로 구성된 목록입니다.
내용물
- 서류
- 조사
- 반복 컴파일 및 컴파일러 옵션 튜닝
- 명령어 수준 최적화
- 병렬성 매핑 및 작업 스케줄링
- 언어와 편집
- 자동 튜닝 및 설계 공간 탐색
- 코드 크기 감소
- 비용 및 성능 모델
- 도메인별 최적화
- 학습 프로그램 표현
- 컴파일러 및 시스템 최적화에서 ML 활성화
- 메모리/캐시 모델링/분석
- 서적
- 강연 및 튜토리얼
- 소프트웨어
- 벤치마크 및 데이터세트
- 컨퍼런스
- 저널
- 기여하는 방법
서류
조사
- 컴파일러 최적화의 기계 학습 - Zheng Wang 및 Michael O'Boyle, IEEE 회보, 2018
- 기계 학습을 사용한 컴파일러 자동 튜닝에 대한 설문 조사 - Amir H. Ashouri, William Killian, John Cavazos, Gianluca Palermo 및 Cristina Silvano, ACM Computing Surveys(CSUR), 2018
- 큰 코드와 자연스러움을 위한 기계 학습 설문 조사 - Miltiadis Allamanis, Earl T. Barr, Premkumar Devanbu 및 Charles Sutton, ACM Computing Surveys(CSUR), 2018
- 시스템 문제에 대한 ML 분류 - Martin Maas, IEEE Micro, 2020
- 딥 러닝 컴파일러: 종합 설문 조사 - Mingzhen Li, Yi Liu, Xiaoyan Liu, Qingxiao Sun, Xin You, Hailong Yang, Zhongzhi Luan, Lin Gan, Guangwen Yang, Depei Qian, 병렬 및 분산 시스템에 대한 IEEE 트랜잭션, 2021
반복 컴파일 및 컴파일러 옵션 튜닝
- SRTuner: 시너지 관계 노출을 통한 효과적인 컴파일러 최적화 사용자 정의 - 박성현, Salar Latifi, 박용준, Armand Behroozi, 전병수, Scott Mahlke. CGO 2022.
- 메트릭 학습 및 협업 필터링을 기반으로 한 반복 컴파일 최적화 - Hongzhi Liu, Jie Luo, Ying Li, Zhonghai Wu. ACM 타코 2022.
- 베이지안 최적화는 기계 학습 초매개변수 조정을 위한 무작위 검색보다 우수합니다: 2020년 블랙박스 최적화 과제 분석 - Ryan Turner, David Eriksson, Michael McCourt, Juha Kiili, Eero Laaksonen, Zhen Xu, Isabelle Guyon. arXiv 2021.
- Bliss: RB Roy, T Patel, V Gadepally, D Tiwari 등 다양한 경량 학습 모델 풀을 사용하여 복잡한 애플리케이션을 자동 조정합니다. PLDI 2021.
- 베이지안 최적화를 통한 효율적인 컴파일러 자동 조정 - Junjie Chen, Ningxin Xu, Peiqi Chen, Hongyu Zhang. ICSE 2021.
- LLVM/Polly의 컴포저블 루프 최적화 변환을 위한 사용자 정의 몬테카를로 트리 검색 - Jaehoon Koo, Prasanna Balaprakash, Michael Kruse, Xingfu Wu, Paul Hovland, Mary Hall. Arxiv.org, 2021.
- 향상된 기본 블록 재정렬 - Andy Newell 및 Sergey Pupyrev. 컴퓨터에서의 IEEE 거래, 2020.
- 심층 강화 학습을 통한 정적 신경 컴파일러 최적화 - Rahim Mammadli, Ali Jannesari, Felix Wolf. LLVM HPC 워크숍, 2020.
- 루프 변환을 위한 검색 공간 자동 조정 - Michael Kruse, Hal Finkel, Xingfu Wu. LLVM HPC 워크숍, 2020.
- 컴파일러 최적화의 자동 조정을 위한 협업 필터링 접근 방식 - Stefano Cereda, Gianluca Palermo, Paolo Cremonesi 및 Stefano Doni, LCTES 2020.
- Autophase: 심층 강화 학습을 통해 hls에 대한 컴파일러 단계 순서 지정. Ameer Haj-Ali, Qijing Huang, William Moses, John Xiang, Ion Stoica, Krste Asanovic, John Wawrzynek. ML시스 2020.
- FuncyTuner: 루프별 컴파일을 통한 과학 애플리케이션 자동 조정 - Tao Wang, Nikhil Jain, David Beckingsale, David Böhme, Frank Mueller, Todd Gamblin. ICPP 2019.
- Micomp: 최적화 하위 시퀀스 및 기계 학습을 사용하여 컴파일러 단계 순서 문제 완화 - Amir H. Ashouri, Andrea Bignoli, Gianluca Palermo, Cristina Silvano, Sameer Kulkarni 및 John Cavazos. TACO(아키텍처 및 코드 최적화)에 대한 ACM 거래 2017.
- 다면체 모델의 병렬화를 위한 반복 일정 최적화 - Stefan Ganser, Armin Grösslinger, Norbert Siegmund, Sven Apel 및 Christian Lengauer. 아키텍처 및 코드 최적화에 대한 ACM 거래(TACO), 2017.
- 프로그램을 최적화하는 방법 학습 - Rudy Bunel, Alban Desmaison, M. Pawan Kumar, Philip HS Torr, Pushmeet Kohlim. ICLR 2017
- 컴파일러 휴리스틱에 대한 지속적인 학습 - Michele Tartara 및 Stefano Crespi Reghizzi. 아키텍처 및 코드 최적화에 대한 ACM 트랜잭션(TACO), 2013.
- 기계 학습을 사용하여 컴파일러 최적화 단계 순서 문제 완화 - Sameer Kulkarni 및 John Cavazos. 웁슬라 2012.
- 반복 컴파일을 위한 다양한 모델링 기법 평가 - 박은정, Sameer Kulkarni, John Cavazos. 사례 2011.
- Yang Chen, Yuanjie Huang, Lieven Eeckhout, Grigori Fursin, Liang Peng, Olivier Temam 및 Chengyong Wu 등 1000개 데이터 세트에 대한 반복 최적화 평가. PLDI 2010
- 다면체 모델의 반복 최적화: 2부, 다차원 시간 - Louis-Noël Pouchet, Cédric Bastoul, Albert Cohen 및 John Cavazos. PLDI 2008.
- Cole: 컴파일러 최적화 수준 탐색 - Kenneth Hoste 및 Lieven Eeckhout. CGO 2008.
- MILEPOST GCC: 기계 학습 기반 연구 컴파일러 - Grigori Fursin, Cupertino Miranda, Olivier Temam, Mircea Namolaru, Elad Yom-Tov, Ayal Zaks, Bilha Mendelson 외, 2008
- 경험적 최적화 단계 순서 검색 알고리즘 평가 - JW Davidson, Gary S. Tyson, DB Whalley 및 PA Kulkarni. CGO 2007.
- 성능 카운터를 사용하여 우수한 컴파일러 최적화를 신속하게 선택(John Cavazos, Grigori Fursin, Felix Agakov, Edwin Bonilla, Michael FP O'Boyle 및 Olivier Temam). CGO 2007.
- 기계 학습을 사용하여 반복 최적화에 집중 - Felix Agakov, Edwin Bonilla, John Cavazos, Björn Franke, Grigori Fursin, Michael FP O'Boyle, John Thomson, Marc Toussaint 및 Christopher KI Williams. CGO 2006.
- 로지스틱 회귀를 사용한 방법별 동적 컴파일 - John Cavazos 및 Michael FP O'boyle. 웁슬라 2005.
- 감독 분류를 사용한 언롤 요인 예측 - Mark Stephenson 및 Saman Amarasinghe. CGO 2005.
- 효과적인 최적화 단계 시퀀스에 대한 빠른 검색 - Prasad Kulkarni, Stephen Hines, Jason Hiser, David Whalley, Jack Davidson 및 Douglas Jones. PLDI 2004.
명령어 수준 최적화
- RL4ReAl: 레지스터 할당을 위한 강화 학습 - S. VenkataKeerthy, Siddharth Jain, Anilava Kundu, Rohit Aggarwal, Albert Cohen, Ramakrishna Upadrasta. CC 2023.
- 지역성과 벡터화를 위한 강화 학습 지원 루프 배포 - Shalini Jain, S. VenkataKeerthy, Rohit Aggarwal, Tharun Kumar Dangeti, Dibyendu Das, Ramakrishna Upadrasta. LLVM HPC 워크샵 2022.
- 강화 학습을 통해 더 빠른 행렬 곱셈 알고리즘 발견 - Fawzi, Alhussein, Matej Balog, Aja Huang, Thomas Hubert, Bernardino Romera-Paredes, Mohammadamin Barekatain, Alexander Novikov et al. 자연 2022
- 다면체 최적화를 위한 강화 학습 환경 - Alexander Brauckmann, Andrés Goens, Jeronimo Castrillon. 조약, 2021.
- DL 코드 최적화를 위한 AI 기반 컴파일러 기술 - Sanket Tavarageri, Gagandeep Goyal, Sasikanth Avancha, Bharat Kaul, Ramakrishna Upadrasta. Arxiv.org, 2021.
- VeGen: SIMD 및 그 이상을 위한 벡터화 생성기 - Yishen Chen, Charith Mendis, Michael Carbin, Saman Amarasinghe. ASPLOS 2021.
- 레지스터 할당을 위한 딥러닝 기반 하이브리드 그래프-채색 알고리즘 - Dibyendu Das, Shahid Asghar Ahmad, Kumar Venkataramanan. LLVM HPC 워크숍, 2020.
- NeuroVectorizer: 심층 강화 학습을 사용한 엔드투엔드 벡터화 - Ameer Haj-Ali, Nesreen K. Ahmed, Ted Willke, Yakun Sophia Shao, Krste Asanovic 및 Ion Stoica. CGO 2020.
- 학습의 힘 활용: 동적 이진 번역을 위한 향상된 학습 기반 접근 방식 - Changheng Song, Wenwen Wang, Pen-Chung Yew, Antonia Zhai, Weihua Zhang. USENIX ATC 2019.
- 모방 학습을 통한 컴파일러 자동 벡터화 - Charith Mendis, Cambridge Yang, Yewen Pu, Saman P. Amarasinghe, Michael Carbin. NeurIPS 2019.
- 이진 번역의 실제 최적화 결정을 위한 다목적 탐색 - 박성현, 우유펑, 이장행, Amir Aupov 및 Scott Mahlke. 임베디드 컴퓨팅 시스템(TECS)에서의 ACM 거래, 2019.
- 머신러닝을 활용한 인라인 휴리스틱 자동 구축. - Sameer Kulkarni, John Cavazos, Christian Wimmer, Douglas Simon. CGO 2013.
- 인라인 휴리스틱의 자동 조정 - John Cavazos 및 Michael O'Boyle. SC 2005.
- 일정 여부를 결정하기 위해 경험적 방법 유도 - John Cavazos 및 J. Eliot B. Moss. PLDI 2003.
- 메타 최적화: 기계 학습을 통해 컴파일러 휴리스틱 개선 - Mark Stephenson, Saman Amarasinghe, Martin Martin 및 Una-May O'Reilly. PLDI 2003.
- 직선 코드 스케줄링 학습 - J. Eliot B. Moss, Paul E. Utgoff, John Cavazos, Doina Precup, Darko Stefanovic, Carla E. Brodley 및 David Scheeff. 신경IPS 1998.
자동 튜닝 및 설계 공간 탐색
- 텐서 계산을 위한 GPU 커널의 자동 조정 가속화 - Chendi Li, Yufan Xu, Sina Mahdipour Saravani 및 P. Sadayappan. ICS 2024.
- 자동 검색 및 최적화를 통한 컴파일러 휴리스틱 공개 - Volker Seeker, Chris Cummins, Murray Cole, Björn Franke, Kim Hazelwood, Hugh Leather. CGO 2024.
- 커널 스케줄링을 위한 물방울 검색 알고리즘 - Michael Canesche, Vanderson M. Rosario, Edson Borin, Fernando Magno Quintão Pereira. ACM 타코 2024
- BaCO: 빠르고 이식 가능한 베이지안 컴파일러 최적화 프레임워크 - Erik Hellsten, Artur Souza, Johannes Lenfers, Rubens Lacouture, Olivia Hsu, Adel Ejjeh, Fredrik Kjolstad, Michel Steuwer, Kunle Olukotun, Luigi Nardi. 아스플로스 2024.
- (De/Re)-MDH 기반 일정을 통해 체계적으로 표현된 구성 - Ari Rasch, Richard Schulze, Denys Shabalin, Anne Elster, Sergei Gorlatch, Mary Hall. CC 2023.
- 자동 튜닝 컨볼루션은 생각보다 쉽습니다 - Nicolas Tollenaere, Guillaume Iooss, Stéphane Pouget, Hugo Brunie, Christophe Guillon, Albert Cohen, P. Sadayappan, Fabrice Rastello. ACM 타코 2022.
- 전송 튜닝: 효율적인 Tensor 프로그램 코드 생성을 위한 자동 일정 재사용 - Perry Gibson, Jose Cano. 조약 2022.
- 살펴보기: 신경 편집을 위한 하드웨어 사양의 수학적 임베딩 - 안병훈, Sean Kinzer, Hadi Esmaeilzadeh. DAC 2022.
- 딥러닝 컴파일러를 위한 원샷 튜너 - 류재훈, 박은혁, 성효진. CC 2022.
- 멀티패스 기계 학습 컴파일러 자동 튜닝을 위한 유연한 접근 방식 - Phitchaya Mangpo Pothilimthana, Amit Sabne, Nikhil Sarda, Karthik Srinivasa Murthy, Yanqi Zhou, Christof Angermueller, Mike Burrows, Sudip Roy, Ketan Mandke, Rezsa Farahani, Yu Emma Wang, Berkin Ilbeyi , 블레이크 헤흐트만(Blake Hechtman), 비야르케 루네(Bjarke Roune), 션 왕(Shen Wang), Yuanzhong Xu, Samuel J. Kaufman. 조약 2021.
- TASO: 그래프 대체 자동 생성을 통한 딥 러닝 계산 최적화 - Zhihao Jia, Oded Padon, James Thomas, Todd Warszawski, Matei Zaharia 및 Alex Aiken. ACM SOSP 2019.
- 심층 신경 워크로드의 처리량 최적화를 위한 가치 학습 - Benoit Steiner, Chris Cummins, Horace He, Hugh Leather. ML시스 2021.
- DynaTune: 심층 신경망의 동적 텐서 프로그램 최적화편집 - Minjia Zhang, Menghao Li, Chi Wang, Mingqin Li. ICLR 2021.
- 진화 그래프 강화 학습을 사용한 메모리 배치 최적화 - Shauharda Khadka, Estelle Aflalo, Mattias Mardar, Avrech Ben-David, Santiago Miret, Shie Mannor, Tamir Hazan, Hanlin Tang, Somdeb Majumdar. ICLR 2021.
- GPTune: 엑사스케일 애플리케이션 자동 튜닝을 위한 멀티태스크 학습 - Yang Liu, Wissam M. Sid-Lakhdar, Osni Marques, Xinran Zhu, Chang Meng, James W. Demmel, Xiaoye S. Li. PPPoPP 2021.
- ApproxTuner: 적응형 근사를 위한 컴파일러 및 런타임 시스템 - Hashim Sharif, Yifan Zhao, Maria Kotsifakou, Akash Kothari, Ben Schreiber, Elizabeth Wang, Yasmin Sarita, Nathan Zhao, Keyur Joshi, Vikram S. Adve, Sasa Misailovic, Sarita Adve. PPPoPP 2021.
- 자동 조정 프레임워크(ATF)를 통해 상호 의존적인 조정 매개변수를 사용하는 병렬 프로그램의 효율적인 자동 조정 - Ari Rasch, Richard Schulze, Michel Steuwer, Sergei Gorlatch. ACM 타코 2021.
- 카멜레온: 신속한 심층 신경망 편집을 위한 적응형 코드 최적화 - 안병훈, Prannoy Pilligundla, Amir Yazdanbakhsh, Hadi Esmaeilzadeh. ICLR 2020.
- Ansor: 딥 러닝을 위한 고성능 텐서 프로그램 생성 - Lianmin Zheng, Chengfan Jia, Minmin Sun, Zhao Wu, Cody Hao Yu, Ameer Haj-Ali, Yida Wang, Jun Yang, Danyang Zhuo, Koushik Sen, Joseph E. Gonzalez, 이온 스토이카. OSDI 2020. (슬라이드, 프레젠테이션)
- GPU의 그래프 처리를 위한 패턴 기반 알고리즘 자동 조정기 - Ke Meng, Jiajia Li, Guangming Tan, Ninghui Sun. PPPoPP 2019.
- FBNet: 미분 신경 아키텍처 검색을 통한 하드웨어 인식 효율적인 ConvNet 설계 - Bichen Wu, Xiaoliang Dai, Peizhao Zhang, Yanghan Wang, Fei Sun, Yiming Wu, Yuandong Tian, Peter Vajda, Yangqing Jia, Kurt Keutzer. CVPR 2019.
- TVM: 딥 러닝을 위한 자동화된 엔드 투 엔드 최적화 컴파일러 - Tianqi Chen, Thierry Moreau, Ziheng Jiang, Lianmin Zheng, Eddie Yan, Haichen Shen, Meghan Cowan 외, OSDI 2018
- BOAT: 구조화된 베이지안 최적화로 자동 튜너 구축 - Valentin Dalibard, Michael Schaarschmidt 및 Eiko Yoneki, WWW 2017.
- Cobayn: 베이지안 네트워크를 사용한 컴파일러 자동 튜닝 프레임워크 - Amir H. Ashouri, Giovanni Mariani, Gianluca Palermo, Eunjung Park, John Cavazos 및 Cristina Silvano, ACM Transactions on Architecture and Code Optimization(TACO), 2016.
- 입력 감도를 위한 자동 튜닝 알고리즘 선택 - Yufei Ding, Jason Ansel, Kalyan Veeramachaneni, Xipeng Shen, Una-May O'Reilly 및 Saman Amarasinghe. PLDI 2015
- 신속함: Yulong Luo, Guangming Tan, Zeyao Mo 및 Ninghui Sun과 같은 최적 솔루션 공간 모델을 기반으로 한 빠른 스텐실 자동 조정 프레임워크입니다. 아키텍처 및 코드 최적화에 대한 ACM 트랜잭션(TACO), 2015.
- 회귀 트리를 사용한 GPU 성능 및 전력 조정 - Wenhao Jia, Elba Garza, Kelly A. Shaw 및 Margaret Martonosi. SC 2015.
- 멀티코어 시스템의 수명 개선을 위한 강화 학습 기반 애플리케이션 간 및 애플리케이션 내 열 최적화 - Anup K Das, Rishad Ahmed Shafik, Geoff V Merrett, Bashir M Al-Hashimi, Akash Kumar, Bharadwaj Veeravalli. DAC 2014
- Opentuner: 프로그램 자동 튜닝을 위한 확장 가능한 프레임워크 - Jason Ansel, Shoaib Kamil, Kalyan Veeramachaneni, Jonathan Ragan-Kelley, Jeffrey Bosboom, Una-May O'Reilly 및 Saman Amarasinghe. 협정 2014
- 자동 조정으로 병렬 I/O 복잡성 관리 - Babak Behzad, Huong Vu Thanh Luu, Joseph Huchette, Surendra Byna, Ruth Aydt, Quincey Koziol 및 Marc Snir. SC 2013.
- 병렬 코드를 위한 다목적 자동 조정 프레임워크 - Herbert Jordan, Peter Thoman, Juan J. Durillo, Simone Pellegrini, Philipp Gschwandtner, Thomas Fahringer 및 Hans Moritsch. SC 2012.
- 라이브러리 성능 조정에 적용한 그래프의 Bandit 기반 최적화 - Frédéric De Mesmay, Arpad Rimmel, Yevgen Voronenko 및 Markus Püschel. ICML 2009.
- 모델과 안내된 경험적 검색을 결합하여 여러 수준의 메모리 계층 구조(Chun Chen, Jacqueline Chame 및 Mary Hall)에 맞게 최적화합니다. CGO 2005
- 능동적인 조화: 자동화된 성능 튜닝을 향하여 - Cristian Tapus, I-Hsin Chung, Jeffrey K. Hollingsworth. SC 2002
병렬성 매핑 및 작업 스케줄링
- 소스 코드 분류를 위한 컨볼루션 신경망 모델 탐색 - Francesco Barchi, Emanuele Parisi, Gianvito Urgese, Elisa Ficarra 및 Andrea Acquaviva. 인공 지능의 엔지니어링 응용, 2021년 1월.
- 자동 조종 장치: Google의 작업 부하 자동 확장 - Krzysztof Rzadca, Pawel Findeisen, Jacek Swiderski, Przemyslaw Zych, Przemyslaw Broniek, Jarek Kusmierek, Pawel Nowak, Beata Strack, Piotr Witusowski, Steven Hand, John Wilkes. EuroSys 2020. 슬라이드
- 기계 학습을 통한 NUMA 효과 모델링 및 최적화 및 프리페치 - Isaac Sánchez Barrera, David Black-Schaffer, Marc Casas, Miquel Moretó, Anastasiia Stupnikova 및 Mihail Popov. ICS 2020.
- Poise: 기계 학습을 사용하여 GPU에서 스레드 수준 병렬성과 메모리 시스템 성능의 균형을 유지합니다(Saumay Dublish, Vijay Nagarajan 및 Nigel Tophama). HPCA 2019.
- NUMA 아키텍처의 데이터 및 스레드 배치: 통계 학습 접근 방식 - Nicolas Denoyelle, Brice Goglin, Emmanuel Jeannot 및 Thomas Ropars. ICPP 2019.
- 딥 러닝 및 LLVM-IR을 사용한 이기종 플랫폼의 코드 매핑 - Francesco Barchi, Gianvito Urgese, Enrico Macii 및 Andrea Acquaviva. DAC 2019.
- 임베디드 이기종 시스템의 OpenCL 프로그램에 대한 적응형 최적화 - Ben Taylor, Vicent Sanz Marco 및 Zheng Wang. LCTES 2017.
- 메모리 인식 작업 공동 배치를 통해 스파크 애플리케이션 처리량 향상: Vicent Sanz Marco, Ben Taylor, Barry Porter 및 Zheng Wang 등 전문가 접근 방식의 혼합. 미들웨어 2017.
- CPU/GPU 이기종 플랫폼의 OpenCL 프로그램을 위한 스마트 멀티태스크 스케줄링 - Yuan Wen, Zheng Wang 및 Michael FP O'Boyle. 하이PC 2015.
- Quasar: 리소스 효율적이고 QoS 인식 클러스터 관리 - Christina Delimitrou 및 Christos Kozyrakis. 아스플로스 2014.
- GPU 기반 이기종 시스템(Zheng Wang, Dominik Grewe 및 Michael O'boyle)을 위한 opencl에 대한 데이터 병렬 프로그램의 자동 및 이식 가능한 매핑. 아키텍처 및 코드 최적화에 대한 ACM 트랜잭션(TACO), 2014.
- 프로필 기반 병렬성 감지 및 기계 학습 기반 매핑 통합 - Zheng Wang, Georgios Tournavitis, Björn Franke 및 Michael FP O'boyle. 아키텍처 및 코드 최적화에 대한 ACM 거래(TACO), 2014.
- 이기종 아키텍처의 휴대용 성능 - Phitchaya Mangpo Pothilimthana, Jason Ansel, Jonathan Ragan-Kelley, Saman Amarasinghe. 아스플로스 2013.
- 외부 워크로드가 있는 경우 병렬 처리에 대한 스마트하고 적응형 매핑 - Murali Krishna Emani, Zheng Wang 및 Michael O'Boyle. CGO 2013.
- 멀티 코어를 위한 분할 스트리밍 병렬 처리: 기계 학습 기반 접근 방식 - Zheng Wang 및 Michael O'Boyle. 조약 2010.
- Qilin: 적응형 매핑을 사용하여 이종 다중 프로세서의 병렬 처리 활용 - Chi-Keung Luk, Sunpyo Hong 및 Hysoon Kim. 마이크로 2009.
- 멀티 코어에 대한 병렬성 매핑: 기계 학습 기반 접근 방식 - Zheng Wang 및 Michael O'Boyle. PPPoPP 2009.
도메인별 최적화
- Seer: 불규칙한 문제에 대한 예측적 런타임 커널 선택 - Ryan Swann, Muhammad Osama, Karthik Sangaiah, Jalal Mahmud. CGO 2024
- 확률적 프로그램을 이용한 텐서 프로그램 최적화 - Junru Shao, Xiyou Zhou, Siyuan Feng, Bohan Hou, Ruihang Lai, Hongyi Jin, Wuwei Lin, Masahiro Masuda, Cody Hao Yu, Tianqi Chen. NeurIPS 2022
- moTuner: 혼합 정밀도 연산자를 위한 컴파일러 기반 자동 조정 접근 방식 - Zewei Mo, Zejia Lin, Xianwei Zhang, Yutong Lu. CF 2022
- 콜라주: 딥 러닝 백엔드의 자동 통합 - 전병수, 박성현, Peiyuan Liao, Sheng Xu, Tianqi Chen, Zhihao Jia. 협정 2022
- 게이트 연속 논리 네트워크를 통한 비선형 루프 불변량 학습 - J. Yao, G. Ryan, J. Wong, S. Jana 및 R. Gu. PLDI 2020.
- C++ 서버 워크로드를 위한 학습 기반 메모리 할당 - Maas, Martin, David G. Andersen, Michael Isard, Mohammad Mahdi Javanmard, Kathryn S. McKinley 및 Colin Raffel. ASPLOS 2020. 사전 설정
- 딥 러닝과 희소 행렬 형식 선택 간의 격차 해소 - Yue Zhao, Jiajia Li, Chunhua Liao 및 Xipeng Shen. PPPoPP 2018.
- Camel: 모바일 웹 상호 작용을 위한 스마트 적응형 에너지 최적화 - Jie Ren, Y. Lu, Petteri Nurmi, Xiaoming Wang, Miao Ma, Ling Gao, Zhanyong Tang, Jie Zheng 및 Zheng Wang. 인포컴 2020.
- 유전자 알고리즘을 사용한 정렬 최적화 - Xiaoming Li, Maria Jesus Garzaran 및 David Padua. CGO 2005.
언어와 편집
- (De/Re)-다차원 동형을 통한 데이터 병렬 계산의 구성 - Ari Rasch, TOPLAS 2024.
- Halide: 이미지 처리 파이프라인에서 병렬성, 지역성 및 재계산을 최적화하기 위한 언어 및 컴파일러 - Jonathan Ragan-Kelley, Connelly Barnes, Andrew Adams, Sylvain Paris, Frédo Durand 및 Saman Amarasinghe, PLDI 2013.
- PetaBricks: 알고리즘 선택을 위한 언어 및 컴파일러 - Jason Ansel, Cy Chan, Yee Lok Wong, Marek Olszewski, Qin Zhao, Alan Edelman 및 Saman Amarasinghe. PLDI 2009.
- 기능적 방식으로 고성능 달성: 재작성 전략으로 고성능 최적화를 표현하는 기능적 진주 - Bastian Hagedorn, Johannes Lenfers, Thomas K{oe}hler, Xueying Qin, Sergei Gorlatch 및 Michel Steuwer. 프로그래밍 언어에 관한 ACM 간행물 2020.
코드 크기 감소
- Coreset 및 정규화된 값 예측을 사용한 컴파일러 패스 순서 학습 - Youwei Liang, Kevin Stone, Ali Shameli, Chris Cummins, Mostafa Elhoushi, Jiadong Guo, Benoit Steiner, Xiaomeng Yang, Pengtao Xie, Hugh Leather, Yuandong Tian. ICML 2023.
- POSET-RL: 강화 학습을 사용한 크기 및 실행 시간 최적화를 위한 단계 순서 지정 - Shalini Jain, Yashas Andaluri, S. VenkataKeerthy, Ramakrishna Upadrasta. ISPASS 2022.
- 코드 크기 감소를 위한 최적화 시퀀스 공간 탐색: 통찰력 및 도구 - Anderson Faustino da Silva, Bernardo NB de Lima 및 Fernando Magno Quintao Pereira. CC 2021. 코드 및 데이터
- 기계 학습을 사용하여 동적 컴파일러에서 중복 휴리스틱의 코드 크기 영향 예측 - Raphael Mosaner, David Leopoldseder, Lukas Stadler 및 Hanspeter Mössenböck. MPLR 2021.
- ANGHABENCH: 코드 크기 감소를 위한 백만 개의 컴파일 가능한 C 벤치마크가 포함된 제품군 - Anderson Faustino da Silva, Bruno Conde Kind, Jose Wesley de Souza Magalhaes, Jeronimo Nunes Rocha, Breno Campos Ferreira Guimaraes, Fernando Magno Quintao Pereira. CGO 2021. 코드 및 데이터
- 강화 학습 안내 소프트웨어 Debloating - Nham Le Van, Ashish Gehani, Arie Gurfinkel, Susmit Jha 및 Jorge A. Navas. ML시스 2019.
- 유전자 알고리즘을 사용하여 감소된 코드 공간 최적화 - Keith D. Cooper, Philip J. Schielke 및 Devika Subramanian. LCTES 1999.
비용 및 성능 모델
- TLP: 텐서 프로그램 튜닝을 위한 딥 러닝 기반 비용 모델 - Yi Zhai, Yu Zhang, Shuo Liu, Xiaomeng Chu, Jie Peng, Jianmin Ji, Yanyong Zhang, ASPLOS, 2023.
- 성능 탐지: 저렴하고 정확한 성능 모델의 자동 추론 - Larissa Schmid, Marcin Copik, Alexandru Calotoiu, Dominik Werle, Andreas Reiter, Michael Selzer, Anne Koziolek, Torsten Hoefler, ICS, 2022.
- S-NUCA 다중 코어의 작업 마이그레이션을 위한 신경망 기반 성능 예측 - Martin Rapp, Anuj Pathania, Tulika Mitra, Jörg Henkel, IEEE Transactions on Computers, 2021.
- 자동 코드 최적화를 위한 딥 러닝 기반 비용 모델 - Riyadh Baghdadi, Massinissa Merouani, Mohamed-Hicham LEGHETTAS, Kamel Abdous, Taha Arbaoui, Karima BENATCHBA, Saman amarasinghe, MLSys 2021
- 성능 예측을 위한 딥러닝을 사용한 비교 코드 구조 분석 - Nathan Pinnow, Tarek Ramadan, Tanzima Z. Islam, Chase Phelps, Jayaraman J. Thiagarajan, ISPASS 2021
- 오염된 프로그램에서 깨끗한 성능 모델 추출 - Marcin Copik, Alexandru Calotoiu, Tobias Grosser, Nicolas Wicki, Felix Wolf, Torsten Hoefler. PPPoPP 2021.
- PMEvo: 진화적 최적화를 통한 비순차적 프로세서에 대한 포트 매핑의 휴대용 추론 - Fabian Ritter, Sebastian Hack. PLDI 2020.
- 성능 튜닝의 경험적 모델링을 위한 능동 학습 방법 - Jiepeng Zhang, Jingwei Sun, Wenju Zhou, Guangzhong Sun. IPDPS 2020.
- 트리 검색 및 무작위 프로그램으로 할로겐화물 최적화 학습 - Andrew Adams, Karima Ma, Luke Anderson, Riyadh Baghdadi, Tzu-Mao Li, Michael Gharbi, Benoit Steiner, Steven Johson, Kayvon Fatahalian, Fredo Durand, Jonathan Ragan-Kelley. ACM 트랜스 그래프, 2019.
- Ithemal: 심층 신경망(Charith Mendis, Alex Renda, Saman Amarasinghe 및 Michael Carbin)을 사용하여 정확하고 휴대 가능하며 빠른 기본 블록 처리량 추정. ICML 2019.
- 압생트: 한 번에 스텐실 코드를 융합하고 타일링하기 위한 분석 성능 모델 학습 - Tobias Gysi, Tobias Grosser 및 Torsten Hoefler. 팩트 2019.
- 공개 데이터 세트(Yu Wang, Victor Lee, Gu-Yeon Wei, David Brooks)를 분석하여 새로운 작업 부하 또는 CPU 성능을 예측합니다. TACO(아키텍처 및 코드 최적화에 관한 ACM 거래), 2019.
- 타일 크기 선택 모델 자동 생성 - Tomofumi Yuki, Lakshminarayanan Renganarayanan, Sanjay Rajopadhye, Charles Anderson, Alexandre E. Eichenberger 및 Kevin O'Brien. CGO 2010.
- 컴파일러 최적화를 위한 마이크로아키텍처에 민감한 경험적 모델 - Kapil Vaswani, Matthew J. Thazhuthaveetil, YN Srikant 및 PJ Joseph. CGO 2007.
- 프로그램 최적화를 위한 정확한 정적 추정기 - Tim A. Wagner, Vance Maverick, Susan L. Graham 및 Michael A. Harrison. PLDI 1994.
학습 프로그램 표현
- 성능 임베딩: 성능 최적화를 위한 유사성 기반 전송 튜닝 접근 방식 - L Trümper, T Ben-Nun, P Schaad, A Calotoiu, T Hoefler. ICS 2023.
- 그래프 정렬을 통한 표현 학습을 사용하여 크로스 플랫폼 이진 분석 개선 - 김근우, 홍상현, Michael Franz, 송도경. ISSTA 2022.
- 예측 편집을 위한 프로그램 대표: 20년대 초반의 상황 - Anderson Faustino da Silva, Edson Borin, Fernando Magno Quintao Pereira, Nilton Luiz Queiroz Junior 및 Otavio Oliveira Napoli. JCL 2022. 코드 및 데이터
- 성능 예측을 위한 딥러닝을 사용한 비교 코드 구조 분석 - DNathan Pinnow, Tarek Ramadan, Tanzima Z. Islam, Chase Phelps, Jayaraman J. Thiagarajan. ISPASS 2021.
- GraphCodeBERT: 데이터 흐름을 사용한 사전 훈련 코드 표현 - Daya Guo, Shuo Ren, Shuai Lu, Zhangyin Feng, Duyu Tang, Shujie LIU, Long Zhou, Nan Duan, Alexey Svyatkovskiy, Shengyu Fu, Michele Tufano, Shao Kun Deng, Colin Clement , Dawn Drain, Neel Sundaresan, Jian Yin, Daxin Jiang, Ming Zhou. ICLR 2021.
- CodeBERT: 프로그래밍 및 자연어를 위한 사전 훈련된 모델 - Zhangyin Feng, Daya Guo, Duyu Tang, Nan Duan, Xiaocheng Feng, Ming Gong, Linjun Shou, Bing Qin, Ting Liu, Daxin Jiang, Ming Zhou. EMNLP 2020.
- IR2VEC: LLVM IR 기반 확장 가능 프로그램 임베딩 - S. VenkataKeerthy, Rohit Aggarwal, Shalini Jain, Maunendra Sankar Desarkar, Ramakrishna Upadrasta 및 YN Srikant. 타코 2020.
- 다중 관계 그래프 기반 학습을 통한 심층 프로그램 구조 모델링 - Guixin Ye, Zhanyong Tang, Huanting Wang, Jianbin Fang, Songfang Huang 및 Zheng Wang. 팩트 2020.
- 소스 코드의 글로벌 관계형 모델 - Vincent J. Hellendoorn, Charles Sutton, Rishabh Singh, Petros Maniatis, David Bieber, ICLR 2020. (데이터 및 코드)
- 그래프 간격 신경망을 사용한 의미 체계 프로그램 임베딩 학습 - Yu Wang, Ke Wang, Fengjuan Gao 및 Linzhang Wang. 웁슬라 2020.
- Flow2Vec: 가치 흐름 기반의 정확한 코드 임베딩 - Yulei Sui, Xiao Cheng, Guanqin Zhang 및 Haoyu Wang. 웁슬라 2020.
- MISIM: 종단 간 신경 코드 유사성 시스템 - Fangke Ye, Shengtian Zhou, Anand Venkat, Ryan Marcus, Nesime Tatbul, Jesmin Jahan Tithi, Paul Petersen, Timothy Mattson, Tim Kraska, Pradeep Dubey, Vivek Sarkar 및 Justin Gottschlich. arXiv 2020.
- 혼합된 정확한 의미론적 프로그램 임베딩 - Ke Wang 및 Zhendong Su. PLDI 2020.
- LambdaNet: 그래프 신경망을 사용한 확률적 유형 추론 - Jiayi Wei, Maruth Goyal, Greg Durrett 및 Isil Dillig. ICLR 2020.
- 코드의 딥 러닝 모델을 위한 컴파일러 기반 그래프 표현 - Alexander Brauckmann, Andrés Goens, Sebastian Ertel 및 Jeronimo Castrillon. CC 2020.
- 그래프를 이용한 생성 코드 모델링 - Marc Brockschmidt, Miltos Allamanis, Alexander L. Gaunt 및 Oleksandr Polozov. ICLR 2019.
- code2seq: 구조화된 코드 표현(Uri Alon, Shaked Brody, Omer Levy 및 Eran Yahav)에서 시퀀스 생성. ICLR 2019.
- code2vec: 코드의 분산 표현 학습 - Uri Alon, Meital Zilberstein, Omer Levy 및 Eran Yahav. 포플 2019.
- COSET: 신경 프로그램 임베딩 평가를 위한 벤치마크 - Ke Wang, Mihai Christodorescu. arXiv 2019.
- 그래프로 프로그램을 표현하는 방법 학습 - Miltiadis Allamanis, Marc Brockschmidt 및 Mahmoud Khademi. ICLR 2018.
- 신경 코드 이해: 코드 의미론의 학습 가능한 표현 - Tal Ben-Nun, Alice Shoshana Jakobovits 및 Torsten Hoefler. NeurIPS 2018.
- 최적화 휴리스틱에 대한 엔드투엔드 딥 러닝 - Chris Cummins, Pavlos Petoumenos, Zheng Wang 및 Hugh Leather(슬라이드) 팩트 2017.
- 의미 인식 프로그램 샘플링 - Pratiksha Thaker, Daniel Tarlow 및 Marc Brockschmidt. NeurIPS 2017.
- DeepCoder: 프로그램 작성 학습 - Matej Balog, Alexander L. Gaunt, Marc Brockschmidt, Sebastian Nowozin 및 Daniel Tarlow. ICLR 2017.
- 프로그래밍 언어 처리를 위한 트리 구조의 컨벌루션 신경망 - Lili Mou, Ge Li, Lu Zhang, Tao Wang 및 Zhi Jin. AAAI 2016.
- 소스 코드의 극단적인 요약을 위한 컨볼루셔널 어텐션 네트워크 - Miltos Allamanis, Hao Peng 및 Charles Sutton. ICML 2016.
- 자연 소스 코드의 구조화된 생성 모델 - Chris Maddison 및 Daniel Tarlow. ICML 2014.
- 예측 모델링을 위한 그래프 기반 프로그램 특성화 사용 - 박은정, John Cavazos 및 Marco A. Alvarez. CGO 2011.
- 기계 학습 기반 최적화 편집을 위한 자동 기능 생성 - Hugh Leather, Edwin Bonilla 및 Michael O'Boyle. CGO 2009.
- 프로그램 분류자와 회피자를 비교하기 위한 게임 기반 프레임워크 - Thais Damasio, Michael Canesche, Vinicius Pacheco, Anderson Faustino da Silva, Marcus Botacin 및 Fernando Magno Quintao Pereira. CGO 2023. 코드 및 데이터
컴파일러 및 시스템 최적화에서 ML 활성화
- 코드 분석 및 최적화를 위한 배포 시간 예측 모델 견고성 향상 - Huanting Wang, Patrick Lenihan, Zheng Wang. CGO 2025. (코드)
- MLIR 변환 방언 - 귀하의 컴파일러는 귀하가 생각하는 것보다 더 강력합니다 - Martin Paul Lücke, Oleksandr Zinenko, William S. Moses, Michel Steuwer, Albert Cohen. Arxiv 2024.
- 메타 대형 언어 모델 컴파일러: 컴파일러 최적화의 기본 모델 - Chris Cummins, Volker Seeker, Dejan Grubisic, Baptiste Roziere, Jonas Gehring, Gabriel Synnaeve, Hugh Leather. Arxiv 2024.
- 차세대 700개의 ML 지원 컴파일러 최적화 - S. VenkataKeerthy, Siddharth Jain, Umesh Kalvakuntla, Pranav Sai Gorantla, Rajiv S Chitale, Eugene Brevdo, Albert Cohen, Mircea Trofin, Ramakrishna Upadrasta. CC 2024.
- BenchPress: 딥 액티브 벤치마크 생성기 - Foivos Tsimpourlas, Pavlos Petoumenos, Min Xu, Chris Cummins, Kim Hazelwood, Ajitha Rajan, Hugh Leather. PACT 2022(코드)
- 코드 최적화를 위한 강화 학습 아키텍처 설계 자동화 - Huanting Wang, Zhanyong Tang, Cheng Zhang, Jiaqi Zhao, Chris Cummins, Hugh Leather, Zheng Wang. CC 2022(코드)
- 하드웨어 설계 검증을 위한 의미론적 표현 학습 - Shobha Vasudevan, Wenjie (Joe) Jiang, David Bieber, Rishabh Singh, hamid shojaei, C. Richard Ho, Charles Sutton. NeurIPS 2021
- MLIR의 구성 가능 및 모듈식 코드 생성: 텐서 컴파일러 구성에 대한 구조화되고 대상 변경 가능한 접근 방식 - Nicolas Vasilache, Oleksandr Zinenko, Aart JC Bik, Mahesh Ravishankar, Thomas Raoux, Alexander Belyaev, Matthias Springer, Tobias Gysi, Diego Caballero, Stephan Herhut, Stella 로렌조, 앨버트 코헨. ARXIV 2022
- 자연어에서 코드 분석을 합성하기 위한 심층적인 NLP 기반 공동 진화 - Zifan Nan, Hui Guan, Xipeng Shen, Chunhua Liao. CC 2021
- MLGO: 기계 학습 안내 컴파일러 최적화 프레임워크 - Mircea Trofin, Yundi Qian, Eugene Brevdo, Zinan Lin, Krzysztof Choromanski, David Li. arXiv. 암호
- 블랙박스 자동 튜닝에 대한 더 나은 이해를 위해: 스토리지 시스템에 대한 비교 분석 - Zhen Cao, Vasily Tarasov, Sachin Tiwari 및 Erez Zadok. ATC 2018.
- Chris Cummins, Pavlos Petoumenos, Zheng Wang 및 Hugh Leather (슬라이드)의 예측 모델링 벤치 마크 합성. CGO 2017.
- William Ogilvie, Pavlos Petoumenos, Zheng Wang 및 Hugh Leather와 같은 적극적인 학습으로 반복 편집 비용을 최소화합니다. CGO 2017.
- VESPA : 바이너리 최적화를위한 정적 프로파일 링 - Angelica Aparecida Moreira, Guilherme Ottoni 및 Fernando Magno Quintao Pereira. oopsla 2021. 코드 및 데이터
- 프로그램 입력에 대한 통계적 회귀와 함께 이종 멀티 코어 시스템의 매핑 계산 - Junio Cezar Ribeiro da Silva, Lorena Leao, Vinicius Petrucci, Abdoulaye Gamatie 및 Fernando Magno Magno Quintao Pereira. TECS 2021.
메모리/캐시 모델링/분석
- 깊은 강화 학습을 사용하여 메모리 매핑 최적화 - 펭밍 왕, Mikita Sazanovich, Berkin Ilbeyi, Phitchaya Mangpo Phothilimthana, Manish Purohit, Han Yang Tay, Ngân Vũ, Miaosen Wang, Cosmin Paduraru, Edouard Leurent, Anton Zhernov, Julian Scholian Schouter, Thorter, chuieser, jherter. Tung, Paula Kurylowicz, Kieran 밀라노, 오리올 Vinyals, Daniel J. Mankowitz. ARXIV 2023.
- 학습 메모리 액세스 패턴 -Milad Hashemi, Kevin Swersky, Jamie A. Smith, Grant Ayers, Heiner Litz, Jichuan Chang, Christos Kozyrakis, Parthasarathy Ranganathan. ICML 2018
- 조용한 상점의 정적 예측 -Fernando Magno Quintao Pereira, Guilherme Vieira Leobas 및 Abdoulaye Gamatie. Taco 2019. 코드 및 데이터
서적
- 기계 학습을 사용한 컴파일러의 자동 조정 -Amir H. Ashouri, Gianluca Palermo, John Cavazos 및 Cristina Silvano. Springer 2018.
- 소프트웨어 자동 조정-개념에서 최신 결과에 이르기까지 -K Naono, K Teranishi, J Cavazos 및 R Suda. Springer 2010.
대화와 튜토리얼
- Saman Amarasinghe, Compiler 2.0 : 기계 학습을 사용하여 컴파일러 기술을 현대화합니다. LCTES 2020.
- Amir Ashouri, 기계 학습을 사용한 컴파일러 자동 조정 : 최첨단 검토 (슬라이드). 폴리 테크닉 대학 밀란 2018.
소프트웨어
- PROM- 배포 후 ML 모델 오해를 식별하는 데 도움이되는 Python 툴킷 (종이).
- ML-Compiler-Bridge- ML 가능 컴파일러 최적화를위한 인터페이스 컴파일러 및 ML 모델에 대한 라이브러리.
- 초음속 - 강화 학습 아키텍처 설계 (종이)를 자동화합니다.
- 컴파일러 - 컴파일러 최적화를위한 강화 학습 환경 (종이).
- Codebert- 프로그래밍 언어 (종이)를위한 미리 훈련 된 DNN 모델.
- IR2VEC -LLVM IR 기반 프로그램 임베드 머신 러닝 (종이).
- 기계 학습 (종이)에 대한 프로그램 표현 및 XLA IR 프로그램 표현.
- Neurovectorizer- 최적의 벡터화 컴파일러 pragmas (종이)를 예측하기 위해 심층 강화 학습 (RL)을 사용합니다.
- TVM- CPU, GPU 및 특수 가속기 (종이; 슬라이드) 용 딥 러닝 컴파일러 스택을 엽니 다.
- CLGEN- LSTMS (종이; 슬라이드)를 사용한 벤치 마크 생성기.
- COBAYN- BNS (종이)를 사용한 컴파일러 자동 튜닝.
- OpenTuner- 도메인 별 다목적 프로그램 AutoTuners (종이; 슬라이드)를 구축하기위한 프레임 워크
- ONNX -MLIR- MLIR 컴파일러 인프라 (종이)에서 ONNX 모델의 표현 및 참조 저하.
- IREE- 리 타겟 가능한 MLIR 기반 머신 러닝 컴파일러 및 런타임 툴킷.
벤치 마크 및 데이터 세트
- Tenset : 학습 된 텐서 컴파일러를위한 대규모 프로그램 성능 데이터 세트 - 일반적으로 사용되는 6 개의 하드웨어 플랫폼 (PAPER)에 대한 텐서 프로그램 성능 레코드의 데이터 세트.
- Spec CPU® 2017 벤치 마크 스위트 용 Alberta 워크로드 - Spec CPU2017 벤치 마크 스위트 용 추가 워크로드.
- Project Codenet- 코드 크기, 메모리 풋 프린트, CPU 실행 시간 및 상태 (수락/오류 유형)와 같은 정보로 주석이 달린 50 개 이상의 프로그래밍 언어로 작성된 코드 샘플
- CodexGlue- 코드 이해 및 생성을위한 머신 러닝 벤치 마크 데이터 세트 (종이)
- Anghabench- 백만 개의 컴파일 가능한 C 벤치 마크 (종이)가있는 스위트 룸
- BHIVE- X86-64 기본 블록 성능 모델 (종이)을 검증하기위한 벤치 마크 스위트 및 측정 프레임 워크.
- CBENCH -32 C 데이터 세트 및 드라이버 스크립트가있는 벤치 마크.
- 폴리 벤치 -30 스텐실 및 데이터 세트 및 드라이버 스크립트가있는 선형 대수 벤치 마크. GPU 버전, 사전 계산 데이터 세트 (종이)도 참조하십시오.
- DeepDataFlow-469K LLVM-IR 파일 및 8.6B 분류 (종이)를위한 데이터 흐름 분석 레이블.
- DEVMAP -650 OPENCL 벤치 마크 기능 및 CPU/GPU 분류 레이블 (종이; 슬라이드).
컨퍼런스
- 프로그래밍 언어 설계 및 구현에 관한 ACM Sigplan 컨퍼런스, PLDI
- 프로그래밍 언어 및 운영 체제에 대한 건축 지원, ASPLOS
- 병렬 프로그래밍의 원리 및 실습에 관한 ACM Sigplan 심포지엄, PPOPP
- 코드 생성 및 최적화에 관한 국제 심포지엄, CGO
- 병렬 아키텍처 및 편집 기술에 관한 국제 회의, 협정
- 객체 지향 프로그래밍, 시스템, 언어 및 응용 프로그램, oopsla
- 컴파일러 건설에 관한 국제 회의, CC
- 슈퍼 컴퓨팅에 관한 국제 회의, ICS
- 고성능 및 임베디드 아키텍처 및 컴파일러에 관한 국제 회의, HIPEAC
- 임베디드 시스템을위한 언어, 컴파일러 및 도구에 관한 국제 회의, LCTE
- 컴퓨팅 프론티어 국제 회의, cf
- 국제 병렬 및 분산 처리 심포지엄, IPDP
- 고성능 컴퓨팅, 네트워킹, 스토리지 및 분석을위한 국제 회의, SC
- 머신 러닝 및 프로그래밍 언어 워크숍, MAPL
- 병렬 컴퓨팅을위한 언어 및 컴파일러, LCPC
- 학습 대표에 관한 국제 회의, ICLR
- 머신 러닝 및 시스템에 관한 회의, MLSYS
저널
- 아키텍처 및 코드 최적화에 대한 ACM 트랜잭션, TACO
기여하는 방법
기여 가이드 라인을 참조하십시오. TL; DR : 관리자 중 하나를 풀 요청을 보냅니다.