Tolles maschinelles Lernen für Compiler und Programmoptimierung
Eine kuratierte Liste großartiger Forschungsarbeiten, Datensätze und Tools zur Anwendung maschineller Lerntechniken auf Compiler und Programmoptimierung.
Inhalt
- Papiere
- Umfrage
- Iterative Kompilierung und Compiler-Optionsoptimierung
- Optimierung auf Befehlsebene
- Parallelitätszuordnung und Aufgabenplanung
- Sprachen und Zusammenstellung
- Autotuning und Design Space Exploration
- Reduzierung der Codegröße
- Kosten- und Leistungsmodelle
- Domänenspezifische Optimierung
- Vertretung des Lernprogramms
- Ermöglichen von ML in Compilern und Systemoptimierung
- Speicher-/Cache-Modellierung/-Analyse
- Bücher
- Vorträge und Tutorials
- Software
- Benchmarks und Datensätze
- Konferenzen
- Zeitschriften
- So können Sie einen Beitrag leisten
Papiere
Umfrage
- Maschinelles Lernen in der Compiler-Optimierung – Zheng Wang und Michael O'Boyle, Proceedings of the IEEE, 2018
- Eine Umfrage zum Compiler-Autotuning mithilfe von maschinellem Lernen – Amir H. Ashouri, William Killian, John Cavazos, Gianluca Palermo und Cristina Silvano, ACM Computing Surveys (CSUR), 2018
- Eine Umfrage zum maschinellen Lernen für großen Code und Natürlichkeit – Miltiadis Allamanis, Earl T. Barr, Premkumar Devanbu und Charles Sutton, ACM Computing Surveys (CSUR), 2018
- Eine Taxonomie von ML für Systemprobleme – Martin Maas, IEEE Micro, 2020
- Der Deep Learning Compiler: Eine umfassende Übersicht – Mingzhen Li, Yi Liu, Xiaoyan Liu, Qingxiao Sun, Xin You, Hailong Yang, Zhongzhi Luan, Lin Gan, Guangwen Yang, Depei Qian, IEEE Transactions on Parallel and Distributed Systems, 2021
Iterative Kompilierung und Compiler-Optionsoptimierung
- SRTuner: Effektive Anpassung der Compiler-Optimierung durch Aufdecken synergistischer Beziehungen – Sunghyun Park, Salar Latifi, Yongjun Park, Armand Behroozi, Byungsoo Jeon, Scott Mahlke. CGO 2022.
- Iterative Kompilierungsoptimierung basierend auf metrischem Lernen und kollaborativer Filterung – Hongzhi Liu, Jie Luo, Ying Li, Zhonghai Wu. ACM TACO 2022.
- Bayesianische Optimierung ist der Zufallssuche für Hyperparameter-Tuning beim maschinellen Lernen überlegen: Analyse der Black-Box-Optimierungsherausforderung 2020 – Ryan Turner, David Eriksson, Michael McCourt, Juha Kiili, Eero Laaksonen, Zhen Xu, Isabelle Guyon. arXiv 2021.
- Bliss: Automatische Optimierung komplexer Anwendungen mithilfe eines Pools verschiedener leichter Lernmodelle – RB Roy, T. Patel, V. Gadepally, D. Tiwari. PLDI 2021.
- Effizientes Compiler-Autotuning durch Bayes'sche Optimierung – Junjie Chen, Ningxin Xu, Peiqi Chen, Hongyu Zhang. ICSE 2021.
- Angepasste Monte-Carlo-Baumsuche für LLVM/Pollys Composable-Loop-Optimierungstransformationen – Jaehoon Koo, Prasanna Balaprakash, Michael Kruse, Xingfu Wu, Paul Hovland, Mary Hall. Arxiv.org, 2021.
- Verbesserte grundlegende Neuordnung von Blöcken – Andy Newell und Sergey Pupyrev. IEEE-Transaktionen auf Computern, 2020.
- Statische neuronale Compiler-Optimierung durch Deep Reinforcement Learning – Rahim Mammadli, Ali Jannesari, Felix Wolf. LLVM HPC-Workshop, 2020.
- Autotuning-Suchraum für Schleifentransformationen – Michael Kruse, Hal Finkel, Xingfu Wu. LLVM HPC-Workshop, 2020.
- Ein kollaborativer Filteransatz für die automatische Abstimmung von Compiler-Optimierungen – Stefano Cereda, Gianluca Palermo, Paolo Cremonesi und Stefano Doni, LCTES 2020.
- Autophase: Compiler-Phasenreihenfolge für HLS mit Deep Reinforcement Learning. Ameer Haj-Ali, Qijing Huang, William Moses, John Xiang, Ion Stoica, Krste Asanovic, John Wawrzynek. MLSys 2020.
- FuncyTuner: Automatische Abstimmung wissenschaftlicher Anwendungen mit Per-Loop-Kompilierung – Tao Wang, Nikhil Jain, David Beckingsale, David Böhme, Frank Mueller, Todd Gamblin. ICPP 2019.
- Micomp: Milderung des Compiler-Phasenordnungsproblems mithilfe von Optimierungsteilsequenzen und maschinellem Lernen – Amir H. Ashouri, Andrea Bignoli, Gianluca Palermo, Cristina Silvano, Sameer Kulkarni und John Cavazos. ACM-Transaktionen zu Architektur und Codeoptimierung (TACO) 2017.
- Iterative Zeitplanoptimierung für Parallelisierung im Polyedermodell – Stefan Ganser, Armin Grösslinger, Norbert Siegmund, Sven Apel und Christian Lengauer. ACM-Transaktionen zu Architektur und Codeoptimierung (TACO), 2017.
- Lernen, Programme zu superoptimieren – Rudy Bunel, Alban Desmaison, M. Pawan Kumar, Philip HS Torr, Pushmeet Kohlim. ICLR 2017
- Kontinuierliches Lernen der Compiler-Heuristik – Michele Tartara und Stefano Crespi Reghizzi. ACM-Transaktionen zu Architektur und Codeoptimierung (TACO), 2013.
- Entschärfung des Phasenordnungsproblems bei der Compiler-Optimierung durch maschinelles Lernen – Sameer Kulkarni und John Cavazos. OOPSLA 2012.
- Eine Bewertung verschiedener Modellierungstechniken für die iterative Kompilierung – Eunjung Park, Sameer Kulkarni und John Cavazos. FÄLLE 2011.
- Bewertung der iterativen Optimierung über 1000 Datensätze hinweg – Yang Chen, Yuanjie Huang, Lieven Eeckhout, Grigori Fursin, Liang Peng, Olivier Temam und Chengyong Wu. PLDI 2010
- Iterative Optimierung im polyedrischen Modell: Teil II, mehrdimensionale Zeit – Louis-Noël Pouchet, Cédric Bastoul, Albert Cohen und John Cavazos. PLDI 2008.
- Cole: Erkundung der Compiler-Optimierungsebene – Kenneth Hoste und Lieven Eeckhout. CGO 2008.
- MILEPOST GCC: auf maschinellem Lernen basierender Forschungscompiler – Grigori Fursin, Cupertino Miranda, Olivier Temam, Mircea Namolaru, Elad Yom-Tov, Ayal Zaks, Bilha Mendelson et al., 2008
- Bewertung heuristischer Optimierungsphasenreihenfolge-Suchalgorithmen – JW Davidson, Gary S. Tyson, DB Whalley und PA Kulkarni. CGO 2007.
- Schnelle Auswahl guter Compiler-Optimierungen mithilfe von Leistungsindikatoren – John Cavazos, Grigori Fursin, Felix Agakov, Edwin Bonilla, Michael FP O'Boyle und Olivier Temam. CGO 2007.
- Verwendung von maschinellem Lernen zur Fokussierung der iterativen Optimierung – Felix Agakov, Edwin Bonilla, John Cavazos, Björn Franke, Grigori Fursin, Michael FP O'Boyle, John Thomson, Marc Toussaint und Christopher KI Williams. CGO 2006.
- Methodenspezifische dynamische Kompilierung mittels logistischer Regression – John Cavazos und Michael FP O'boyle. OOPSLA 2005.
- Vorhersage von Abrollfaktoren mithilfe überwachter Klassifizierung – Mark Stephenson und Saman Amarasinghe. CGO 2005.
- Schnelle Suche nach effektiven Optimierungsphasensequenzen – Prasad Kulkarni, Stephen Hines, Jason Hiser, David Whalley, Jack Davidson und Douglas Jones. PLDI 2004.
Optimierung auf Befehlsebene
- RL4ReAl: Reinforcement Learning für die Registerzuweisung – S. VenkataKeerthy, Siddharth Jain, Anilava Kundu, Rohit Aggarwal, Albert Cohen, Ramakrishna Upadrasta. CC 2023.
- Durch Reinforcement Learning unterstützte Schleifenverteilung für Lokalität und Vektorisierung – Shalini Jain, S. VenkataKeerthy, Rohit Aggarwal, Tharun Kumar Dangeti, Dibyendu Das, Ramakrishna Upadrasta. LLVM HPC-Workshop 2022.
- Entdeckung schnellerer Matrixmultiplikationsalgorithmen mit verstärkendem Lernen – Fawzi, Alhussein, Matej Balog, Aja Huang, Thomas Hubert, Bernardino Romera-Paredes, Mohammadamin Barekatain, Alexander Novikov et al. Natur 2022
- Eine verstärkende Lernumgebung für polyedrische Optimierungen – Alexander Brauckmann, Andrés Goens, Jeronimo Castrillon. PACT, 2021.
- KI-gestützte Compilertechniken zur DL-Codeoptimierung – Sanket Tavarageri, Gagandeep Goyal, Sasikanth Avancha, Bharat Kaul, Ramakrishna Upadrasta. Arxiv.org, 2021.
- VeGen: Ein Vektorisierergenerator für SIMD und darüber hinaus – Yishen Chen, Charith Mendis, Michael Carbin, Saman Amarasinghe. ASPLOS 2021.
- Deep-Learning-basierter Hybrid-Graph-Coloring-Algorithmus für die Registerzuordnung – Dibyendu Das, Shahid Asghar Ahmad, Kumar Venkataramanan. LLVM HPC-Workshop, 2020.
- NeuroVectorizer: End-to-End-Vektorisierung mit Deep Reinforcement Learning – Ameer Haj-Ali, Nesreen K. Ahmed, Ted Willke, Yakun Sophia Shao, Krste Asanovic und Ion Stoica. CGO 2020.
- Die Kraft des Lernens freisetzen: Ein verbesserter lernbasierter Ansatz für die dynamische binäre Übersetzung – Changheng Song, Wenwen Wang, Pen-Chung Yew, Antonia Zhai, Weihua Zhang. USENIX ATC 2019.
- Compiler-Autovektorisierung mit Imitation Learning – Charith Mendis, Cambridge Yang, Yewen Pu, Saman P. Amarasinghe, Michael Carbin. NeurIPS 2019.
- Multiobjektive Untersuchung für praktische Optimierungsentscheidungen in der binären Übersetzung – Sunghyun Park, Youfeng Wu, Janghaeng Lee, Amir Aupov und Scott Mahlke. ACM-Transaktionen auf eingebetteten Computersystemen (TECS), 2019.
- Automatischer Aufbau von Inlining-Heuristiken mittels maschinellem Lernen. – Sameer Kulkarni, John Cavazos, Christian Wimmer und Douglas Simon. CGO 2013.
- Automatische Optimierung von Inlining-Heuristiken – John Cavazos und Michael O'Boyle. SC 2005.
- Induzieren von Heuristiken zur Entscheidung, ob eine Planung erfolgen soll – John Cavazos und J. Eliot B. Moss. PLDI 2003.
- Metaoptimierung: Verbesserung der Compiler-Heuristik durch maschinelles Lernen – Mark Stephenson, Saman Amarasinghe, Martin Martin und Una-May O'Reilly. PLDI 2003.
- Lernen, geradlinigen Code zu planen – J. Eliot B. Moss, Paul E. Utgoff, John Cavazos, Doina Precup, Darko Stefanovic, Carla E. Brodley und David Scheeff. NeurIPS 1998.
Autotuning und Design Space Exploration
- Beschleunigtes Autotuning von GPU-Kerneln für Tensorberechnungen – Chendi Li und Yufan Xu und Sina Mahdipour Saravani und P. Sadayappan. ICS 2024.
- Aufdeckung von Compiler-Heuristiken durch automatisierte Erkennung und Optimierung – Volker Seeker, Chris Cummins, Murray Cole, Björn Franke, Kim Hazelwood, Hugh Leather. CGO 2024.
- Der Droplet-Suchalgorithmus für die Kernel-Planung – Michael Canesche, Vanderson M. Rosario, Edson Borin, Fernando Magno Quintão Pereira. ACM TACO 2024
- BaCO: Ein schnelles und tragbares Bayesian Compiler-Optimierungs-Framework – Erik Hellsten, Artur Souza, Johannes Lenfers, Rubens Lacouture, Olivia Hsu, Adel Ejjeh, Fredrik Kjolstad, Michel Steuwer, Kunle Olukotun, Luigi Nardi. ASPLOS 2024.
- (De/Re)-Kompositionen, die systematisch über MDH-basierte Zeitpläne ausgedrückt werden – Ari Rasch, Richard Schulze, Denys Shabalin, Anne Elster, Sergei Gorlatch, Mary Hall. CC 2023.
- Das Autotuning von Faltungen ist einfacher als Sie denken – Nicolas Tollenaere, Guillaume Iooss, Stéphane Pouget, Hugo Brunie, Christophe Guillon, Albert Cohen, P. Sadayappan, Fabrice Rastello. ACM TACO 2022.
- Transfer-Tuning: Wiederverwendung automatischer Zeitpläne für eine effiziente Codegenerierung von Tensorprogrammen – Perry Gibson, Jose Cano. Pakt 2022.
- Einblick: Mathematische Einbettung von Hardwarespezifikationen für die neuronale Kompilierung – Byung Hoon Ahn, Sean Kinzer, Hadi Esmaeilzadeh. DAC 2022.
- One-Shot-Tuner für Deep-Learning-Compiler – Jaehun Ryu, Eunhyeok Park, Hyojin Sung. CC 2022.
- Ein flexibler Ansatz zur automatischen Optimierung von Multi-Pass-Compilern für maschinelles Lernen – Phitchaya Mangpo Phothilimthana, Amit Sabne, Nikhil Sarda, Karthik Srinivasa Murthy, Yanqi Zhou, Christof Angermueller, Mike Burrows, Sudip Roy, Ketan Mandke, Rezsa Farahani, Yu Emma Wang, Berkin Ilbeyi , Blake Hechtman, Bjarke Roune, Shen Wang, Yuanzhong Xu, und Samuel J. Kaufman. PACT 2021.
- TASO: Optimierung der Deep-Learning-Berechnung durch automatische Generierung von Graphsubstitutionen – Zhihao Jia, Oded Padon, James Thomas, Todd Warszawski, Matei Zaharia und Alex Aiken. ACM SOSP 2019.
- Value Learning zur Durchsatzoptimierung tiefer neuronaler Workloads – Benoit Steiner, Chris Cummins, Horace He, Hugh Leather. MLSys 2021.
- DynaTune: Dynamische Tensorprogrammoptimierung in Deep Neural Network Compilation – Minjia Zhang, Menghao Li, Chi Wang, Mingqin Li. ICLR 2021.
- Optimierung der Gedächtnisplatzierung mithilfe von Evolutionary Graph Reinforcement Learning – Shauharda Khadka, Estelle Aflalo, Mattias Mardar, Avrech Ben-David, Santiago Miret, Shie Mannor, Tamir Hazan, Hanlin Tang, Somdeb Majumdar. ICLR 2021.
- GPTune: Multitasking-Lernen für Autotuning-Exascale-Anwendungen – Yang Liu, Wissam M. Sid-Lakhdar, Osni Marques, Xinran Zhu, Chang Meng, James W. Demmel, Xiaoye S. Li. PPoPP 2021.
- ApproxTuner: Ein Compiler- und Laufzeitsystem für adaptive Approximationen – Hashim Sharif, Yifan Zhao, Maria Kotsifakou, Akash Kothari, Ben Schreiber, Elizabeth Wang, Yasmin Sarita, Nathan Zhao, Keyur Joshi, Vikram S. Adve, Sasa Misailovic, Sarita Adve. PPoPP 2021.
- Effizientes Auto-Tuning paralleler Programme mit voneinander abhängigen Tuning-Parametern über Auto-Tuning Framework (ATF) – Ari Rasch, Richard Schulze, Michel Steuwer, Sergei Gorlatch. ACM TACO 2021.
- Chameleon: Adaptive Code-Optimierung für die beschleunigte Kompilierung tiefer neuronaler Netzwerke – Byung Hoon Ahn, Prannoy Pilligundla, Amir Yazdanbakhsh, Hadi Esmaeilzadeh. ICLR 2020.
- Autor: Generieren von Hochleistungs-Tensorprogrammen für Deep Learning – Lianmin Zheng, Chengfan Jia, Minmin Sun, Zhao Wu, Cody Hao Yu, Ameer Haj-Ali, Yida Wang, Jun Yang, Danyang Zhuo, Koushik Sen, Joseph E. Gonzalez, Ion Stoica. OSDI 2020. (Folien, Präsentation)
- Ein musterbasierter algorithmischer Autotuner für die Grafikverarbeitung auf GPUs – Ke Meng, Jiajia Li, Guangming Tan, Ninghui Sun. PPoPP 2019.
- FBNet: Hardwarebewusstes, effizientes ConvNet-Design durch differenzierbare neuronale Architektursuche – Bichen Wu, Xiaoliang Dai, Peizhao Zhang, Yanghan Wang, Fei Sun, Yiming Wu, Yuandong Tian, Peter Vajda, Yangqing Jia, Kurt Keutzer. CVPR 2019.
- TVM: Ein automatisierter End-to-End-Optimierungscompiler für Deep Learning – Tianqi Chen, Thierry Moreau, Ziheng Jiang, Lianmin Zheng, Eddie Yan, Haichen Shen, Meghan Cowan et al., OSDI 2018
- BOOT: Aufbau von Autotunern mit strukturierter Bayes'scher Optimierung – Valentin Dalibard, Michael Schaarschmidt und Eiko Yoneki, WWW 2017.
- Cobayn: Compiler-Autotuning-Framework unter Verwendung bayesianischer Netzwerke – Amir H. Ashouri, Giovanni Mariani, Gianluca Palermo, Eunjung Park, John Cavazos und Cristina Silvano, ACM Transactions on Architecture and Code Optimization (TACO), 2016.
- Wahl des Autotuning-Algorithmus für die Eingangsempfindlichkeit – Yufei Ding, Jason Ansel, Kalyan Veeramachaneni, Xipeng Shen, Una-May O'Reilly und Saman Amarasinghe. PLDI 2015
- Schnell: Ein schnelles Schablonen-Autotuning-Framework basierend auf einem Raummodell mit optimaler Lösung – Yulong Luo, Guangming Tan, Zeyao Mo und Ninghui Sun. ACM-Transaktionen zu Architektur und Codeoptimierung (TACO), 2015.
- GPU-Leistung und Leistungsoptimierung mithilfe von Regressionsbäumen – Wenhao Jia, Elba Garza, Kelly A. Shaw und Margaret Martonosi. SC 2015.
- Reinforcement Learning-basierte thermische Optimierung zwischen und innerhalb der Anwendung zur Verbesserung der Lebensdauer von Multicore-Systemen – Anup K Das, Rishad Ahmed Shafik, Geoff V Merrett, Bashir M Al-Hashimi, Akash Kumar, Bharadwaj Veeravalli. DAC 2014
- Opentuner: Ein erweiterbares Framework für Programm-Autotuning – Jason Ansel, Shoaib Kamil, Kalyan Veeramachaneni, Jonathan Ragan-Kelley, Jeffrey Bosboom, Una-May O'Reilly und Saman Amarasinghe. PACT 2014
- Parallele I/O-Komplexität mit Auto-Tuning zähmen – Babak Behzad, Huong Vu Thanh Luu, Joseph Huchette, Surendra Byna, Ruth Aydt, Quincey Koziol und Marc Snir. SC 2013.
- Ein multiobjektives Auto-Tuning-Framework für parallele Codes – Herbert Jordan, Peter Thoman, Juan J. Durillo, Simone Pellegrini, Philipp Gschwandtner, Thomas Fahringer und Hans Moritsch. SC 2012.
- Bandit-basierte Optimierung von Diagrammen mit Anwendung auf die Optimierung der Bibliotheksleistung – Frédéric De Mesmay, Arpad Rimmel, Yevgen Voronenko und Markus Püschel. ICML 2009.
- Kombination von Modellen und geführter empirischer Suche zur Optimierung für mehrere Ebenen der Gedächtnishierarchie – Chun Chen, Jacqueline Chame und Mary Hall. CGO 2005
- Aktive Harmonie: Auf dem Weg zur automatisierten Leistungsoptimierung – Cristian Tapus, I-Hsin Chung, Jeffrey K. Hollingsworth. SC 2002
Parallelitätszuordnung und Aufgabenplanung
- Erforschung von Convolutional Neural Network-Modellen zur Quellcodeklassifizierung – Francesco Barchi, Emanuele Parisi, Gianvito Urgese, Elisa Ficarra und Andrea Acquaviva. Technische Anwendungen künstlicher Intelligenz, Januar 2021.
- Autopilot: Workload-Autoscaling bei Google – Krzysztof Rzadca, Pawel Findeisen, Jacek Swiderski, Przemyslaw Zych, Przemyslaw Broniek, Jarek Kusmierek, Pawel Nowak, Beata Strack, Piotr Witusowski, Steven Hand, John Wilkes. EuroSys 2020. Folien
- Modellierung und Optimierung von NUMA-Effekten und Prefetching mit maschinellem Lernen – Isaac Sánchez Barrera, David Black-Schaffer, Marc Casas, Miquel Moretó, Anastasiia Stupnikova und Mihail Popov. ICS 2020.
- Poise: Ausgleich von Parallelität auf Thread-Ebene und Speichersystemleistung in GPUs mithilfe von maschinellem Lernen – Saumay Dublish, Vijay Nagarajan und Nigel Tophama. HPCA 2019.
- Daten- und Thread-Platzierung in NUMA-Architekturen: Ein statistischer Lernansatz – Nicolas Denoyelle, Brice Goglin, Emmanuel Jeannot und Thomas Ropars. ICPP 2019.
- Code-Mapping in heterogenen Plattformen mit Deep Learning und LLVM-IR – Francesco Barchi, Gianvito Urgese, Enrico Macii und Andrea Acquaviva. DAC 2019.
- Adaptive Optimierung für OpenCL-Programme auf eingebetteten heterogenen Systemen – Ben Taylor, Vicent Sanz Marco und Zheng Wang. LCTES 2017.
- Verbesserung des Spark-Anwendungsdurchsatzes durch speicherbewusste Aufgaben-Kolokation: Eine Mischung aus Expertenansatz – Vicent Sanz Marco, Ben Taylor, Barry Porter und Zheng Wang. Middleware 2017.
- Intelligente Multitasking-Planung für OpenCL-Programme auf heterogenen CPU/GPU-Plattformen – Yuan Wen, Zheng Wang und Michael FP O'Boyle. HiPC 2015.
- Quasar: Ressourceneffizientes und QoS-bewusstes Clustermanagement – Christina Delimitrou und Christos Kozyrakis. ASPLOS 2014.
- Automatische und portable Zuordnung datenparalleler Programme zu OpenCL für GPU-basierte heterogene Systeme – Zheng Wang, Dominik Grewe und Michael O'boyle. ACM-Transaktionen zu Architektur und Codeoptimierung (TACO), 2014.
- Integration der profilgesteuerten Parallelitätserkennung und der auf maschinellem Lernen basierenden Kartierung – Zheng Wang, Georgios Tournavitis, Björn Franke und Michael FP O'boyle. ACM-Transaktionen zu Architektur und Codeoptimierung (TACO), 2014.
- Tragbare Performance zu heterogenen Architekturen – Phitchaya Mangpo Phothilimthana, Jason Ansel, Jonathan Ragan-Kelley, Saman Amarasinghe. ASPLOS 2013.
- Intelligente, adaptive Abbildung von Parallelität bei externer Arbeitsbelastung – Murali Krishna Emani, Zheng Wang und Michael O'Boyle. CGO 2013.
- Partitionierung der Streaming-Parallelität für Multicores: ein auf maschinellem Lernen basierender Ansatz – Zheng Wang und Michael O'Boyle. PACT 2010.
- Qilin: Ausnutzung der Parallelität auf heterogenen Multiprozessoren mit adaptiver Zuordnung – Chi-Keung Luk, Sunpyo Hong und Hyesoon Kim. MIKRO 2009.
- Parallelität auf Multicores abbilden: ein auf maschinellem Lernen basierender Ansatz – Zheng Wang und Michael O'Boyle. PPoPP 2009.
Domänenspezifische Optimierung
- Seher: Prädiktive Laufzeitkernelauswahl für unregelmäßige Probleme – Ryan Swann, Muhammad Osama, Karthik Sangaiah, Jalal Mahmud. CGO 2024
- Tensorprogrammoptimierung mit probabilistischen Programmen – Junru Shao, Xiyou Zhou, Siyuan Feng, Bohan Hou, Ruihang Lai, Hongyi Jin, Wuwei Lin, Masahiro Masuda, Cody Hao Yu, Tianqi Chen. NeurIPS 2022
- moTuner: ein Compiler-basierter Auto-Tuning-Ansatz für Operatoren mit gemischter Präzision – Zewei Mo, Zejia Lin, Xianwei Zhang, Yutong Lu. CF 2022
- Collage: Automatisierte Integration von Deep-Learning-Backends – Byungsoo Jeon, Sunghyun Park, Peiyuan Liao, Sheng Xu, Tianqi Chen, Zhihao Jia. Pakt 2022
- Lernen nichtlinearer Schleifeninvarianten mit Gated Continuous Logic Networks – J. Yao, G. Ryan, J. Wong, S. Jana und R. Gu. PLDI 2020.
- Lernbasierte Speicherzuweisung für C++-Server-Workloads – Maas, Martin, David G. Andersen, Michael Isard, Mohammad Mahdi Javanmard, Kathryn S. McKinley und Colin Raffel. ASPLOS 2020. voreingestellt
- Überbrückung der Lücke zwischen Deep Learning und Auswahl des Sparse-Matrix-Formats – Yue Zhao, Jiajia Li, Chunhua Liao und Xipeng Shen. PPoPP 2018.
- Camel: Intelligente, adaptive Energieoptimierung für mobile Webinteraktionen – Jie Ren, Y. Lu, Petteri Nurmi, Xiaoming Wang, Miao Ma, Ling Gao, Zhanyong Tang, Jie Zheng und Zheng Wang. INFOCOM 2020.
- Optimierung der Sortierung mit genetischen Algorithmen – Xiaoming Li, Maria Jesus Garzaran und David Padua. CGO 2005.
Sprachen und Zusammenstellung
- (De/Re)-Komposition datenparalleler Berechnungen über mehrdimensionale Homomorphismen – Ari Rasch, TOPLAS 2024.
- Halide: eine Sprache und ein Compiler zur Optimierung von Parallelität, Lokalität und Neuberechnung in Bildverarbeitungspipelines – Jonathan Ragan-Kelley, Connelly Barnes, Andrew Adams, Sylvain Paris, Frédo Durand und Saman Amarasinghe, PLDI 2013.
- PetaBricks: eine Sprache und ein Compiler für algorithmische Auswahl – Jason Ansel, Cy Chan, Yee Lok Wong, Marek Olszewski, Qin Zhao, Alan Edelman und Saman Amarasinghe. PLDI 2009.
- Höchstleistung auf funktionale Weise erreichen: eine funktionale Perle zum Ausdruck leistungsstarker Optimierungen als Rewrite-Strategien – Bastian Hagedorn, Johannes Lenfers, Thomas K{oe}hler, Xueying Qin, Sergei Gorlatch und Michel Steuwer. Tagungsband der ACM zu Programmiersprachen 2020.
Reduzierung der Codegröße
- Lernen von Compiler-Pass-Befehlen mithilfe von Coreset und normalisierter Wertvorhersage – Youwei Liang, Kevin Stone, Ali Shameli, Chris Cummins, Mostafa Elhoushi, Jiadong Guo, Benoit Steiner, Xiaomeng Yang, Pengtao Xie, Hugh Leather, Yuandong Tian. ICML 2023.
- POSET-RL: Phasenreihenfolge zur Optimierung von Größe und Ausführungszeit mithilfe von Reinforcement Learning – Shalini Jain, Yashas Andaluri, S. VenkataKeerthy, Ramakrishna Upadrasta. ISPASS 2022.
- Erkundung des Raums von Optimierungssequenzen zur Reduzierung der Codegröße: Erkenntnisse und Tools – Anderson Faustino da Silva, Bernardo NB de Lima und Fernando Magno Quintao Pereira. CC 2021. Code und Daten
- Verwendung von maschinellem Lernen zur Vorhersage der Auswirkungen von Duplikationsheuristiken auf die Codegröße in einem dynamischen Compiler – Raphael Mosaner, David Leopoldseder, Lukas Stadler und Hanspeter Mössenböck. MPLR 2021.
- ANGHABENCH: eine Suite mit einer Million kompilierbarer C-Benchmarks zur Reduzierung der Codegröße – Anderson Faustino da Silva, Bruno Conde Kind, Jose Wesley de Souza Magalhaes, Jeronimo Nunes Rocha, Breno Campos Ferreira Guimaraes, Fernando Magno Quintao Pereira. CGO 2021. Code und Daten
- Reinforcement Learning Guided Software Debloating – Nham Le Van, Ashish Gehani, Arie Gurfinkel, Susmit Jha und Jorge A. Navas. MLSys 2019.
- Optimierung für reduzierten Coderaum mithilfe genetischer Algorithmen – Keith D. Cooper, Philip J. Schielke und Devika Subramanian. LCTES 1999.
Kosten- und Leistungsmodelle
- TLP: Ein auf Deep Learning basierendes Kostenmodell für die Optimierung von Tensorprogrammen – Yi Zhai, Yu Zhang, Shuo Liu, Xiaomeng Chu, Jie Peng, Jianmin Ji, Yanyong Zhang, ASPLOS, 2023.
- Performance-Detective: Automatische Ableitung günstiger und genauer Performance-Modelle – Larissa Schmid, Marcin Copik, Alexandru Calotoiu, Dominik Werle, Andreas Reiter, Michael Selzer, Anne Koziolek, Torsten Hoefler, ICS, 2022.
- Auf neuronalen Netzwerken basierende Leistungsvorhersage für die Aufgabenmigration auf S-NUCA-Vielekernen – Martin Rapp, Anuj Pathania, Tulika Mitra, Jörg Henkel, IEEE Transactions on Computers, 2021.
- Ein auf Deep Learning basierendes Kostenmodell für die automatische Codeoptimierung – Riyadh Baghdadi, Massinissa Merouani, Mohamed-Hicham LEGHETTAS, Kamel Abdous, Taha Arbaoui, Karima BENATCHBA, Saman amarasinghe, MLSys 2021
- Vergleichende Codestrukturanalyse mit Deep Learning zur Leistungsvorhersage – Nathan Pinnow, Tarek Ramadan, Tanzima Z. Islam, Chase Phelps, Jayaraman J. Thiagarajan, ISPASS 2021
- Extrahieren sauberer Leistungsmodelle aus fehlerhaften Programmen – Marcin Copik, Alexandru Calotoiu, Tobias Grosser, Nicolas Wicki, Felix Wolf, Torsten Hoefler. PPoPP 2021.
- PMEvo: Portable Inferenz von Port-Mappings für Out-of-Order-Prozessoren durch evolutionäre Optimierung – Fabian Ritter, Sebastian Hack. PLDI 2020.
- Eine aktive Lernmethode zur empirischen Modellierung bei der Leistungsoptimierung – Jiepeng Zhang, Jingwei Sun, Wenju Zhou, Guangzhong Sun. IPDPS 2020.
- Lernen, Halogenid mit Baumsuche und Zufallsprogrammen zu optimieren – Andrew Adams, Karima Ma, Luke Anderson, Riyadh Baghdadi, Tzu-Mao Li, Michael Gharbi, Benoit Steiner, Steven Johson, Kayvon Fatahalian, Fredo Durand, Jonathan Ragan-Kelley. ACM Trans Graph, 2019.
- Ithemal: Genaue, tragbare und schnelle Schätzung des Basisblockdurchsatzes mithilfe tiefer neuronaler Netze – Charith Mendis, Alex Renda, Saman Amarasinghe und Michael Carbin. ICML 2019.
- Absinth: Erlernen eines analytischen Leistungsmodells zum Zusammenführen und Kacheln von Schablonencodes in einem Schuss – Tobias Gysi, Tobias Grosser und Torsten Hoefler. PACT 2019.
- Vorhersage neuer Arbeitslast oder CPU-Leistung durch Analyse öffentlicher Datensätze – Yu Wang, Victor Lee, Gu-Yeon Wei und David Brooks. ACM-Transaktionen zu Architektur und Codeoptimierung (TACO), 2019.
- Automatische Erstellung von Auswahlmodellen für die Kachelgröße – Tomofumi Yuki, Lakshminarayanan Renganarayanan, Sanjay Rajopadhye, Charles Anderson, Alexandre E. Eichenberger und Kevin O'Brien. CGO 2010.
- Mikroarchitektur-sensitive empirische Modelle für Compiler-Optimierungen – Kapil Vaswani, Matthew J. Thazhuthaveetil, YN Srikant und PJ Joseph. CGO 2007.
- Genaue statische Schätzer zur Programmoptimierung – Tim A. Wagner, Vance Maverick, Susan L. Graham und Michael A. Harrison. PLDI 1994.
Vertretung des Lernprogramms
- Leistungseinbettungen: Ein auf Ähnlichkeit basierender Transfer-Tuning-Ansatz zur Leistungsoptimierung – L. Trümper, T. Ben-Nun, P. Schaad, A. Calotoiu, T. Hoefler. ICS 2023.
- Verbesserung der plattformübergreifenden Binäranalyse durch Repräsentationslernen über Graph Alignment – Geunwoo Kim, Sanghyun Hong, Michael Franz, Dokyung Song. ISSTA 2022.
- Programmdarstellungen für die prädiktive Zusammenstellung: Stand der Dinge in den frühen 20er Jahren – Anderson Faustino da Silva, Edson Borin, Fernando Magno Quintao Pereira, Nilton Luiz Queiroz Junior und Otavio Oliveira Napoli. JCL 2022. Code und Daten
- Vergleichende Codestrukturanalyse mit Deep Learning zur Leistungsvorhersage – DNathan Pinnow, Tarek Ramadan, Tanzima Z. Islam, Chase Phelps, Jayaraman J. Thiagarajan. ISPASS 2021.
- GraphCodeBERT: Codedarstellungen vor dem Training mit Datenfluss – Daya Guo, Shuo Ren, Shuai Lu, Zhangyin Feng, Duyu Tang, Shujie LIU, Long Zhou, Nan Duan, Alexey Svyatkovskiy, Shengyu Fu, Michele Tufano, Shao Kun Deng, Colin Clement , Dawn Drain, Neel Sundaresan, Jian Yin, Daxin Jiang, Ming Zhou. ICLR 2021.
- CodeBERT: Ein vorab trainiertes Modell für Programmierung und natürliche Sprachen – Zhangyin Feng, Daya Guo, Duyu Tang, Nan Duan, Xiaocheng Feng, Ming Gong, Linjun Shou, Bing Qin, Ting Liu, Daxin Jiang, Ming Zhou. EMNLP 2020.
- IR2VEC: LLVM IR-basierte skalierbare Programmeinbettungen – S. VenkataKeerthy, Rohit Aggarwal, Shalini Jain, Maunendra Sankar Desarkar, Ramakrishna Upadrasta und YN Srikant. TACO 2020.
- Tiefgreifende Programmstrukturmodellierung durch multirelationales graphbasiertes Lernen – Guixin Ye, Zhanyong Tang, Huanting Wang, Jianbin Fang, Songfang Huang und Zheng Wang. PAKT 2020.
- Globale relationale Modelle des Quellcodes – Vincent J. Hellendoorn, Charles Sutton, Rishabh Singh, Petros Maniatis, David Bieber, ICLR 2020. (Daten und Code)
- Lernen semantischer Programmeinbettungen mit Graph Interval Neural Network – Yu Wang, Ke Wang, Fengjuan Gao und Linzhang Wang. OOPSLA 2020.
- Flow2Vec: Wertflussbasierte, präzise Code-Einbettung – Yulei Sui, Xiao Cheng, Guanqin Zhang und Haoyu Wang. OOPSLA 2020.
- MISIM: Ein End-to-End-System zur Ähnlichkeit neuronaler Codes – Fangke Ye, Shengtian Zhou, Anand Venkat, Ryan Marcus, Nesime Tatbul, Jesmin Jahan Tithi, Paul Petersen, Timothy Mattson, Tim Kraska, Pradeep Dubey, Vivek Sarkar und Justin Gottschlich. arXiv 2020.
- Gemischte, präzise semantische Programmeinbettungen – Ke Wang und Zhendong Su. PLDI 2020.
- LambdaNet: Probabilistische Typinferenz mithilfe graphischer neuronaler Netze – Jiayi Wei, Maruth Goyal, Greg Durrett und Isil Dillig. ICLR 2020.
- Compilerbasierte Graphdarstellungen für Deep-Learning-Codemodelle – Alexander Brauckmann, Andrés Goens, Sebastian Ertel und Jeronimo Castrillon. CC 2020.
- Generative Code-Modellierung mit Graphen – Marc Brockschmidt, Miltos Allamanis, Alexander L. Gaunt und Oleksandr Polozov. ICLR 2019.
- code2seq: Generieren von Sequenzen aus strukturierten Darstellungen von Code – Uri Alon, Shaked Brody, Omer Levy und Eran Yahav. ICLR 2019.
- code2vec: Verteilte Darstellungen von Code lernen – Uri Alon, Meital Zilberstein, Omer Levy und Eran Yahav. POPL 2019.
- COSET: Ein Maßstab für die Bewertung der Einbettung neuronaler Programme – Ke Wang, Mihai Christodorescu. arXiv 2019.
- Lernen, Programme mit Graphen darzustellen – Miltiadis Allamanis, Marc Brockschmidt und Mahmoud Khademi. ICLR 2018.
- Neuronales Codeverständnis: Eine erlernbare Darstellung der Codesemantik – Tal Ben-Nun, Alice Shoshana Jakobovits und Torsten Hoefler. NeurIPS 2018.
- End-to-End Deep Learning von Optimierungsheuristiken – Chris Cummins, Pavlos Petoumenos, Zheng Wang und Hugh Leather (Folien). PACT 2017.
- Semantikbewusstes Programm-Sampling – Pratiksha Thaker, Daniel Tarlow und Marc Brockschmidt. NeurIPS 2017.
- DeepCoder: Lernen, Programme zu schreiben – Matej Balog, Alexander L. Gaunt, Marc Brockschmidt, Sebastian Nowozin und Daniel Tarlow. ICLR 2017.
- Faltungs-Neuronale Netze über Baumstrukturen für die Verarbeitung von Programmiersprachen – Lili Mou, Ge Li, Lu Zhang, Tao Wang und Zhi Jin. AAAI 2016.
- Ein Faltungsaufmerksamkeitsnetzwerk zur extremen Zusammenfassung von Quellcode – Miltos Allamanis, Hao Peng und Charles Sutton. ICML 2016.
- Strukturierte generative Modelle des natürlichen Quellcodes – Chris Maddison und Daniel Tarlow. ICML 2014.
- Verwendung graphbasierter Programmcharakterisierung für die Vorhersagemodellierung – Eunjung Park, John Cavazos und Marco A. Alvarez. CGO 2011.
- Automatische Feature-Generierung für maschinelles Lernen basierende Optimierungskompilierung – Hugh Leather, Edwin Bonilla und Michael O'Boyle. CGO 2009.
- Ein spielbasiertes Framework zum Vergleich von Programmklassifizierern und -verweigerern – Thais Damasio, Michael Canesche, Vinicius Pacheco, Anderson Faustino da Silva, Marcus Botacin und Fernando Magno Quintao Pereira. CGO 2023. Code und Daten
Ermöglichen von ML in Compilern und Systemoptimierung
- Verbesserung der Robustheit prädiktiver Modelle zur Bereitstellungszeit für die Codeanalyse und -optimierung – Huanting Wang, Patrick Lenihan, Zheng Wang. CGO 2025. (Code)
- Der MLIR-Transformationsdialekt – Ihr Compiler ist leistungsfähiger als Sie denken – Martin Paul Lücke, Oleksandr Zinenko, William S. Moses, Michel Steuwer, Albert Cohen. Arxiv 2024.
- Meta Large Language Model Compiler: Grundmodelle der Compiler-Optimierung – Chris Cummins, Volker Seeker, Dejan Grubisic, Baptiste Roziere, Jonas Gehring, Gabriel Synnaeve, Hugh Leather. Arxiv 2024.
- Die nächsten 700 ML-fähigen Compiler-Optimierungen – S. VenkataKeerthy, Siddharth Jain, Umesh Kalvakuntla, Pranav Sai Gorantla, Rajiv S Chitale, Eugene Brevdo, Albert Cohen, Mircea Trofin, Ramakrishna Upadrasta. CC 2024.
- BenchPress: Ein tiefgreifender aktiver Benchmark-Generator – Foivos Tsimpourlas, Pavlos Petoumenos, Min Xu, Chris Cummins, Kim Hazelwood, Ajitha Rajan, Hugh Leather. PACT 2022 (Code)
- Automatisierung des Reinforcement-Learning-Architekturdesigns zur Codeoptimierung – Huanting Wang, Zhanyong Tang, Cheng Zhang, Jiaqi Zhao, Chris Cummins, Hugh Leather, Zheng Wang. CC 2022 (Code)
- Erlernen semantischer Darstellungen zur Überprüfung von Hardware-Designs – Shobha Vasudevan, Wenjie (Joe) Jiang, David Bieber, Rishabh Singh, Hamid Shojaei, C. Richard Ho, Charles Sutton. NeurIPS 2021
- Zusammensetzbare und modulare Codegenerierung in MLIR: Ein strukturierter und neu ausrichtbarer Ansatz für die Tensor-Compiler-Konstruktion – Nicolas Vasilache, Oleksandr Zinenko, Aart JC Bik, Mahesh Ravishankar, Thomas Raoux, Alexander Belyaev, Matthias Springer, Tobias Gysi, Diego Caballero, Stephan Herhut, Stella Laurenzo, Albert Cohen. arXiV 2022
- Tiefgreifende NLP-basierte Co-Evolution zur Synthese von Codeanalysen aus natürlicher Sprache – Zifan Nan, Hui Guan, Xipeng Shen, Chunhua Liao. CC 2021
- MLGO: ein durch maschinelles Lernen gesteuertes Compiler-Optimierungs-Framework – Mircea Trofin, Yundi Qian, Eugene Brevdo, Zinan Lin, Krzysztof Choromanski, David Li. arXiv. Code
- Auf dem Weg zu einem besseren Verständnis des Black-Box-Autotunings: Eine vergleichende Analyse für Speichersysteme – Zhen Cao, Vasily Tarasov, Sachin Tiwari und Erez Zadok. ATC 2018.
- Synthese von Benchmarks für die Vorhersagemodellierung - Chris Cummins, Pavlos Petoumenos, Zheng Wang und Hugh Leder (Folien). CGO 2017.
- Minimieren Sie die Kosten für die iterative Zusammenstellung mit aktivem Lernen - William Ogilvie, Pavlos Petoumenos, Zheng Wang und Hugh Leder. CGO 2017.
- Vespa: Statische Profilierung für binäre Optimierung - Angelica aparecida morira, Guilherme Ottoni und Fernando Magno Quintao Pereira. Oopsla 2021. Code und Daten
- Mapping -Berechnungen in heterogenen Multicore -Systemen mit statistischer Regression auf Programmeingaben - Junio Cezar Ribeiro da Silva, Lorena Leao, Vinicius Petrucci, Abdoulaye Gamatie und Fernando Magno Quintao Pereia. TECS 2021.
Speicher/Cache -Modellierung/-analyse
- Optimierung der Gedächtnis Mapping mit tiefem Verstärkungslernen - Pengming Wang, Mikita Sazanovich, Berkin Ilbeyi, Phitchaya Mangpo Phothilimthana, Manish Purohit, Han Yang Tay, Ngân Vũ, Miaosen Wang, Cosmin Paduru, Edoubles, Edoubles, ANTONENT, ANTONTON ZHERNOV, ANTONTON ZHERNOVER, ANTONTON ZHERNOVER, ANTONTON ZHERNOVER, JUTURT, THOUDER, ANTONTON ZHERNOV. Tung, Paula Kurylowicz, Kieran Mailand, Oriol Vinyals, Daniel J. Mankowitz. Arxiv 2023.
- Lerngedächtniszugriffsmuster - Milad Hashemi, Kevin Swersky, Jamie A. Smith, Grant Ayers, Heiner Litz, Jichuan Chang, Christos Kozyrakis, Parthasarathy Ranganathan. ICML 2018
- Statische Vorhersage von stillen Geschäften - Fernando Magno Quintao Pereira, Guilherme Vieira Leobas und Abdoulaye Gamatie. Taco 2019. Code und Daten
Bücher
- Automatische Abstimmung von Compilern mit maschinellem Lernen - Amir H. Ashouri, Gianluca Palermo, John Cavazos und Cristina Silvano. Springer 2018.
- SOFTWARE AUTOMATISCHE TOMING-Von Konzepten bis hin zu hochmodernen Ergebnissen-K Naono, K Teranishi, J. Cavazos und R Suda. Springer 2010.
Gespräche und Tutorials
- Saman Amarasinghe, Compiler 2.0: Verwenden von maschinellem Lernen zur Modernisierung der Compiler -Technologie. LCTES 2020.
- Amir Ashouri, Compiler Autotuning mit maschinellem Lernen: eine hochmoderne Überprüfung (Folien). Polytechnische Universität von Mailand 2018.
Software
- PROM - Ein Python -Toolkit zur Identifizierung von ML -Modellfehlern nach dem Einsatz (Papier).
- ML-Compiler-Bridge-Bibliothek zu Schnittstellencompilern und ML-Modellen für ML-fähige Compiler-Optimierungen (Papier).
- Supersonic - Automatisieren Sie das Design der Verstärkungslernarchitektur (Papier).
- Compilergy - Verstärkungslernumgebungen für Compiler -Optimierungen (Papier).
- CODERBEBET - Vorausgebildete DNN -Modelle für Programmiersprachen (Papier).
- IR2VEC - LLVM IR -basiertes Programmbettendings für maschinelles Lernen (Papier).
- ProgramL - LLVM und XLA IR -Programmrepräsentation für maschinelles Lernen (Papier).
- Neurovectorizer - Verwenden von Deep verstärkten Lernen (RL) zur Vorhersage eines optimalen Vektorisierungs Compiler Pragmas (Papier).
- TVM - Open Deep Learning Compiler Stack für CPU, GPU und spezielle Beschleuniger (Papier; Folien).
- Clgen - Benchmark -Generator mit LSTMS (Papier; Objektträger).
- Cobayn - Compiler Autotuning mit BNS (Papier).
- OpenTuner-Framework zum Aufbau domänenspezifischer Multi-Objektivprogramm-Autotuner (Papier; Folien)
- ONNX -MLIR - Darstellung und Referenzabsenkung von ONNX -Modellen in der MLIR -Compiler -Infrastruktur (Papier).
- IREE - Ein maschinelles MLIR -basierter Compiler für maschinelles Lernen und Laufzeit -Toolkit.
Benchmarks und Datensätze
- Tenset: Ein groß angelegter Programmleistungendatensatz für gelehrte Tensor -Compiler - ein Datensatz mit Tensor -Programmleistungspflichten für sechs häufig verwendete Hardware -Plattformen (Papier).
- Die Alberta Workloads für die Spec CPU® 2017 Benchmark Suite - Zusätzliche Workloads für die Spec CPU2017 Benchmark Suite.
- Project CODENET - Code -Beispiele in 50+ Programmiersprachen, mit Informationen wie Codegröße, Speicherausdruck, CPU -Laufzeit und Status (Akzeptanz-/Fehlertypen) geschrieben, wie z. B. Codegröße, Speicherausdruck, CPU -Laufzeit
- CodExGLE - Ein Datensatz für maschinelles Lernen für das Verständnis und die Generierung von Code (Papier)
- Anghabench - Eine Suite mit einer Million kompilierbaren C -Benchmarks (Papier)
- BHIVE - Ein Benchmark -Suite- und Messgerüst zur Validierung von X86-64 Basic Block Performance Models (Papier).
- CBench - 32 C -Benchmarks mit Datensätzen und Treiberskripten.
- Polybench - 30 Schablonen und Linear -Algebra -Benchmarks mit Datensätzen und Treiberskripten. Siehe auch: GPU-Version, Vorbereitete Datensätze (Papier).
- Deepdataflow-469K LLVM-IR-Dateien und 8.6B-Datenflussanalyse-Etiketten für die Klassifizierung (Papier).
- DevMap - 650 OpenCL -Benchmark -Funktionen und CPU/GPU -Klassifizierungsbezeichnungen (Papier; Folien).
Konferenzen
- ACM -Sigplan -Konferenz zum Design und -implementierung von Programmiersprachen, PLDI
- Architektonische Unterstützung für Programmiersprachen und Betriebssysteme, Asplos
- ACM Sigplan Symposium über Prinzipien und Praxis der parallelen Programmierung, ppopp
- Internationales Symposium für Codegenerierung und -Optimierung, CGO
- Internationale Konferenz über parallele Architekturen und Kompilierungstechniken, Pakt
- Objektorientierte Programmierung, Systeme, Sprachen und Anwendungen, oopsla
- Internationale Konferenz über Compiler Construction, CC
- Internationale Konferenz über Supercomputing, ICS
- Internationale Konferenz über Hochleistungs- und eingebettete Architekturen und Compiler, HIPEAC
- Internationale Konferenz über Sprachen, Compiler und Tools für eingebettete Systeme, LCTES
- Internationale Konferenz über Computergrenzen, vgl.
- Internationales paralleles und verteiltes Verarbeitungssymposium, IPDPS
- Internationale Konferenz für Hochleistungs -Computing, Networking, Speicher und Analyse, SC
- Maschinelles Lernen und Programmiersprachen Workshop, MAPL
- Sprachen und Compiler für Parallel Computing, LCPC
- Internationale Konferenz über Lernrepräsentationen, ICLR
- Konferenz über maschinelles Lernen und Systeme, MLSYS
Zeitschriften
- ACM -Transaktionen zur Architektur und Codeoptimierung, Taco
So können Sie einen Beitrag leisten
Siehe Beitragsrichtlinien. TL; DR: Senden Sie einem der Wartenden eine Pull -Anfrage.