Zitat
Reparaturszenarien
Semantischer Fehler
Sicherheitslücke
Syntaxfehler
Programmierproblem
Statische Warnung
Selbst-Debug
Geben Sie Fehler ein
Web-UI-Test
Intelligenter Vertrag
Hardwarefehler
Leistungsfehler
API-Missbrauch
Absturzfehler
Testfall
Formaler Beweis
Übersetzungsfehler
GitHub-Problem
Codeüberprüfung
Bewegungsplaner
? Humanstudie
? Bewertung der Patch-Korrektheit
Benchmark
? Verwandte APR-Umfragen
@article{zhang2024survey, title={Eine systematische Literaturübersicht zu großen Sprachmodellen für die automatisierte Programmreparatur}, Autor={Zhang, Quanjun und Fang, Chunrong und Xie, Yang und Ma, Yuxiang und Sun, Weisong und Yang, Yun und Chen , Zhenyu}, Journal={arXiv Preprint arXiv:2405.01466} Jahr={2024}}
Fügen Sie SE-Agent-basierte Studien für GitHub-Probleme hinzu
ISSTA 2024-Papiere hinzufügen
Veröffentlichen Sie eine neue Version dieses Dokuments auf arXiv
CORE: Lösung von Codequalitätsproblemen mithilfe von LLMs [2024-FSE]
Prompt Fix: Technologie zur automatischen Reparatur von Schwachstellen basierend auf Prompt Engineering [2024-ICNC]
Evaluierung großer Sprachmodelle für die Reparatur realer Schwachstellen in C/C++-Code[2024-IWSPA]
Untersuchung der Fähigkeiten großer Sprachmodelle zur automatischen Codereparatur in Python[2024-Cluster Computing]
LPR: Large Language Models-Aided Program Reduction[2024-ISSTA]
Eine Fallstudie zu LLM für die automatische Reparatur von Schwachstellen: Bewertung der Auswirkungen von Argumentation und Feedback zur Patch-Validierung (2024–7. Juli) AIware 2024
Wenn große Sprachmodelle mit der automatischen Programmreparatur auf Repository-Ebene konfrontiert werden: Wie gut haben sie das gemacht? [2024-ICSE]
Erforschung der parametereffizienten Feinabstimmung großer Sprachmodelle bei der automatisierten Programmreparatur[2024-ASE]
Erkundung des Potenzials der auf einer Conversational Test Suite basierenden Programmreparatur auf der SWE-Bench [2024-arXiv]
Erforschung und Steigerung der Robustheit der LLM-gestützten automatisierten Programmreparatur mit metamorphem Testen[2024-arXiv] [Papier]
Divide-and-Conquer: Automatisieren von Coderevisionen durch Lokalisierung und Revision [2024-TOSEM]
Vom Code zur Korrektheit: Die letzte Meile der Codegenerierung mit hierarchischem Debugging schließen [2024-arXiv] [Papier] [Repo]
Automatisierte Programmreparatur für einführende Programmieraufgaben [2024-TLT] [Papier]
Automatisierte Reparatur von KI-Code mit großen Sprachmodellen und formaler Verifizierung [2024-arXiv] [Papier]
CraftRTL: Hochwertige synthetische Datengenerierung für Verilog-Codemodelle mit konstruktionskorrekten nichttextuellen Darstellungen und gezielter Codereparatur [2024-arXiv-NVIDIA] [Papier]
Benchmarking der automatisierten Programmreparatur: Eine umfangreiche Studie zu realen und künstlichen Fehlern [2024-ISSTA] [Papier]
Automatisierte Programmreparatur per Konversation: Behebung von 162 von 337 Fehlern für jeweils 0,42 $ mit chatgpt[2024-ISSTA] [Papier]
Nutzung eines großen Sprachmodells für die automatische Patch-Korrektheitsbewertung[2024-TSE] [Papier]
Automatisierte Programmreparatur für Variabilitätsfehler in Softwareproduktliniensystemen[2024-JSS] [Papier]
PyBugHive: Eine umfassende Datenbank manuell validierter, reproduzierbarer Python-Fehler[2024-IEEE Access] [Papier]
Wie versteht man das gesamte Software-Repository? [2024-arXiv] [Papier]
Automatisierte Programmreparatur für Variabilitätsfehler in Softwareproduktliniensystemen[2024-JSS] [Papier]
Ein einheitlicher Debugging-Ansatz über LLM-basierte Multi-Agent-Synergie [2024-arxiv] [Papier] [Repo]
Wie weit können wir mit der praktischen Reparatur von Programmen auf Funktionsebene gehen? [2024-arxiv] [Papier] [Repo]
Automatisierte Programmreparatur per Konversation: Behebung von 162 von 337 Fehlern für jeweils 0,42 $ mit chatgpt[2024-ISSTA] [Papier]
Alte Version: Halten Sie die Konversation am Laufen: Behebung von 162 von 337 Fehlern für jeweils 0,42 $ mit ChatGPT [2023-arxiv] [Papier]
Ein neuartiger Ansatz zur automatischen Programmreparatur mithilfe der Round-Trip-Übersetzung mit großen Sprachmodellen [2024-arxiv] [Papier] [Repo]
Außerhalb des Kontexts: Wie wichtig ist der lokale Kontext bei der Reparatur neuronaler Programme? [2024-ICSE] [Papier] [Repo]
Multi-Ziel-Feinabstimmung für eine verbesserte Programmreparatur mit LLMs [2024-arxiv] [Papier]
Ausrichten von LLMs für die FL-freie Programmreparatur [2024-arxiv] [Papier]
ContrastRepair: Verbesserung der konversationsbasierten automatisierten Programmreparatur über kontrastive Testfallpaare [2024-arxiv] [Papier]
Erkundung des Potenzials vorab trainierter Sprachmodelle von Code für die automatisierte Programmreparatur [2024-Electronics] [Papier]
CigaR: Kosteneffiziente Programmreparatur mit LLMs [2024-arxiv] [Papier] [Repo]
Das Problem der Faktenauswahl bei der LLM-basierten Programmreparatur [2024-arxiv] [Papier] [Repo]
Ein neuartiger Ansatz für die automatisierte Programmreparatur mithilfe der Round-Trip-Übersetzung mit großen Sprachmodellen [2024-arxiv] [Papier] [Repo]
RepairAgent: Ein autonomer, LLM-basierter Agent für die Programmreparatur [2024-arxiv] [Papier]
Ein tiefer Einblick in große Sprachmodelle für die automatisierte Fehlerlokalisierung und -reparatur [2024-FSE/ESEC] [Papier]
Automatisierte Programmreparatur im Zeitalter großer vorab trainierter Sprachmodelle [2023-ICSE] [Papier] [Repo]
Reparatur steht kurz vor der Generation: Mehrsprachige Programmreparatur mit LLMs [2023-AAAI] [Papier]
Abrufbasierte Eingabeaufforderungsauswahl für codebezogenes Lernen mit wenigen Schüssen [2023-ICSE] [Papier] [Repo]
Was macht gute kontextbezogene Demonstrationen für Code-Intelligence-Aufgaben mit llms aus? [2023-ASE] [Papier] [Repo]
Vollständig autonome Programmierung mit großen Sprachmodellen [2023-GECCO] [Papier] [Repo]
Automatisierte Programmreparatur mithilfe generativer Modelle zum Ausfüllen von Code [2023-AIED] [Papier] [Repo]
STEAM: Simulation des interaktiven Verhaltens von Programmierern zur automatischen Fehlerbehebung [2023-arxiv] [Papier]
Konversationelle automatisierte Programmreparatur [2023-arxiv] [Papier]
Ist ChatGPT der ultimative Programmierassistent – wie weit ist er entfernt? [2023-arxiv] [Papier] [Repo]
Verwendung großer Sprachmodelle zur Fehlerlokalisierung und -behebung [2023-iCAST] [Papier]
Eine empirische Studie zur Feinabstimmung großer Codemodelle für die automatisierte Programmreparatur [2023-ASE] [Papier] [Repo]
Eine Bewertung der Wirksamkeit von ChatGPT von OpenAI zur automatisierten Fehlerbehebung in Python-Programmen mit QuixBugs [2023-iSEMANTIC] [Papier]
Erklärbares automatisiertes Debugging durch modellgesteuertes wissenschaftliches Debugging in großen Sprachen [2023-arxiv] [Papier]
Die richtigen Eingabeaufforderungen für den Job: Code-Review-Fehler mit großem Sprachmodell reparieren [2023-arxiv] [Papier]
Einfluss von Code-Sprachmodellen auf die automatisierte Programmreparatur [2023-ICSE] [Papier] [Repo]
Auf dem Weg zur Generierung funktional korrekter Codebearbeitungen aus Problembeschreibungen in natürlicher Sprache [2023-arxiv] [Papier]
Die Hypothese der plastischen Chirurgie im Zeitalter großer Sprachmodelle [2023-ASE] [Papier] [Repo]
Erkundung der Grenzen von ChatGPT in Software-Sicherheitsanwendungen [2023-arxiv] [Papier]
CodeScope: Ein ausführungsbasierter mehrsprachiger mehrdimensionaler Multitask-Benchmark zur Bewertung von LLMs hinsichtlich Codeverständnis und -generierung [2023-arxiv] [Papier] [Repo]
Verbesserung der automatisierten Programmreparatur durch Feinabstimmung und schnelles Engineering [2023-arxiv] [Papier] [Repo]
Trainingssprachmodelle für Programmierfeedback mithilfe automatisierter Reparaturtools [2023-AIED] [Papier] [Repo]
RepairLLaMA: Effiziente Darstellungen und fein abgestimmte Adapter für die Programmreparatur [2023-arxiv] [Papier] [Repo]
Automatisierte Codebearbeitung mit Suchen-Generieren-Ändern [2023-arxiv] [Papier] [Repo]
RAP-Gen: Retrieval-Augmented Patch Generation mit CodeT5 für die automatische Programmreparatur [2023-FSE/ESEC] [Paper] [Repo]
Reparatur neuronaler Programme mit Programmabhängigkeitsanalyse und effektivem Filtermechanismus [2023-arxiv] [Papier]
Kaffee: Steigern Sie Ihre Code-LLMs, indem Sie Fehler mit Feedback beheben [2023-arxiv] [Papier] [Repo]
Eine Studie über schnelles Design, Vorteile und Einschränkungen von ChatGPT für die Reparatur von Deep-Learning-Programmen [2023-arxiv] [Papier]
Copiloting the Copilots: Verschmelzung großer Sprachmodelle mit Completion Engines für die automatisierte Programmreparatur [2023-FSE/ESEC] [Papier] [Repo]
Gamma: Überarbeitung der vorlagenbasierten automatisierten Programmreparatur mittels Maskenvorhersage [2023-ASE] [Papier] [Repo]
Eine umfangreiche Studie zur Modellarchitektur und Programmdarstellung im Bereich der lernbasierten automatisierten Programmreparatur [2023-APR] [Papier] [Repo]
Verbesserung der automatisierten Programmreparatur durch Domänenanpassung [2023-TOSEM] [Papier] [Repo]
Verbesserung von Codesprachenmodellen für die Programmreparatur durch das Curricular Fine-Tuning Framework [2023-ICSME] [Papier]
Die potenzielle Verwendung von ChatGPT zum Debuggen und Beheben von Fehlern [2023-] [Papier]
CIRCLE: Kontinuierliche Reparatur über Programmiersprachen hinweg [2022-ISSTA] [Papier] [Repo]
Auf dem Weg zur Reparatur von JavaScript-Programmen mit Generative Pre-trained Transformer (GPT-2) [2022-APR] [Papier] [Repo]
Beheben Sie Fehler mit Transformer durch eine neuronal-symbolische Editiergrammatik [2022-ICLR] [Papier]
Patch-Generierung mit Sprachmodellen: Machbarkeit und Skalierungsverhalten [2022-ICLR] [Papier]
Kann der Codex von OpenAI Fehler beheben?: eine Bewertung zu QuixBugs [2022-APR] [Papier]
Eine Analyse der automatischen Fehlerbehebungsleistung von ChatGPT [2022-APR] [Papier] [Repo]
Weniger Training, bitte mehr Reparaturen: Wiederholung der automatisierten Programmreparatur durch Zero-Shot-Learning [2022-FSE/ESEC] [Paer] [Repo]
Reparatur des Framing-Programms als Code-Vervollständigung [2022-APR] [Papier] [Repo]
DEAR Ein neuartiger, auf Deep Learning basierender Ansatz für die automatisierte Programmreparatur [2022-ICSE] [Papier] [Repo]
Generieren von Fehlerbehebungen mithilfe vorab trainierter Transformatoren [2021-PLDI] [Papier]
Anwenden von CodeBERT für die automatisierte Programmreparatur von Java Simple Bugs [2021-MSR] [Paper] [Repo]
CURE Code-Aware Neural Machine Translation für die automatische Programmreparatur [2021-ICSE] [Paper] [Repo]
Wie versteht man das gesamte Software-Repository? [2024-arXiv] [Papier]
Automatisierte Reparatur von KI-Code mit großen Sprachmodellen und formaler Verifizierung [2024-arXiv] [Papier]
NAVRepair: Node-Type-Aware C/C++-Code-Schwachstellenreparatur [2024-arxiv] [Papier]
Verbesserte automatisierte Reparatur von Code-Schwachstellen mithilfe großer Sprachmodelle [2024-arxiv] [Papier]
Aus den Augen, aus dem Kopf: Bessere automatische Schwachstellenreparatur durch Erweiterung der Eingabebereiche und -quellen [2024-ICSE] [Papier] [Repo]
Eine Studie zur Behebung von Sicherheitslücken in JavaScript-Programmen mit großen Sprachmodellen [2024-arxiv] [Papier] [Repo]
Gedankenkettenaufforderung an große Sprachmodelle zur Erkennung und Behebung von Software-Schwachstellen [2024-arxiv] [Papier]
Vorab trainierte modellbasierte automatisierte Software-Schwachstellenreparatur: Wie weit sind wir? [2023-TDSC] [Papier] [Repo]
Untersuchung der Zero-Shot-Schwachstellenreparatur mit großen Sprachmodellen [2023-S&P] [Papier] [Repo]
Eine empirische Studie zur Feinabstimmung großer Codemodelle für die automatisierte Programmreparatur [2023-ASE] [Papier] [Repo]
Eine neue Ära der Softwaresicherheit: Auf dem Weg zu selbstheilender Software mithilfe großer Sprachmodelle und formaler Verifizierung [2023-arxiv] [Papier]
Erkundung der Grenzen von ChatGPT in Software-Sicherheitsanwendungen [2023-arxiv] [Papier]
ZeroLeak: Verwendung von LLMs für skalierbares und kostengünstiges Seitenkanal-Patching [2023-arxiv] [Papier]
Wie ChatGPT das Problem des Schwachstellenmanagements löst [2023-arxiv] [Papier] [Repo]
Wie effektiv sind neuronale Netze zur Behebung von Sicherheitslücken [2023-ISSTA] [Papier] [Repo]
Von Vision Transformer inspirierte automatisierte Schwachstellenreparatur [2023-TOSEM] [Papier] [Repo]
Können große Sprachmodelle anfällige Software finden und reparieren? [2023-arxiv] [Papier]
VulRepair: Eine T5-basierte automatisierte Software-Schwachstellenreparatur [2022-FSE/ESEC] [Papier] [Repo]
Ein neuartiger Ansatz für die automatisierte Programmreparatur mithilfe der Round-Trip-Übersetzung mit großen Sprachmodellen [2024-arxiv] [Papier] [Repo]
Reparatur steht kurz vor der Generation: Mehrsprachige Programmreparatur mit LLMs [2023-AAAI] [Papier]
Beheben von Rust-Kompilierungsfehlern mithilfe von LLMs [2023-arxiv] [Papier]
Eine empirische Studie zur Feinabstimmung großer Codemodelle für die automatisierte Programmreparatur [2023-ASE] [Papier] [Repo]
Eine Kette von KI-basierten Lösungen zur Auflösung von FQNs und zur Behebung von Syntaxfehlern in Teilcode [2023-arxiv] [Papier] [Repo]
Die richtigen Eingabeaufforderungen für den Job: Code-Review-Fehler mit großem Sprachmodell reparieren [2023-arxiv] [Papier]
SYNSHINE: verbesserte Behebung von Syntaxfehlern [2022-TSE] [Papier] [Repo]
CraftRTL: Hochwertige synthetische Datengenerierung für Verilog-Codemodelle mit konstruktionskorrekten nichttextuellen Darstellungen und gezielter Codereparatur [2024-arXiv-NVIDIA] [Papier]
Ein einheitlicher Debugging-Ansatz über LLM-basierte Multi-Agent-Synergie [2024-arXiv] [Papier] [Repo]
PyDex: Beheben von Fehlern in einführenden Python-Aufgaben mithilfe von LLMs [2024-OOPSLA] [Papier] [Repo]
DebugBench: Bewertung der Debugfähigkeit großer Sprachmodelle [2024-arxiv] [Papier] [Repo]
ContrastRepair: Verbesserung der konversationsbasierten automatisierten Programmreparatur über kontrastive Testfallpaare [2024-arxiv] [Papier]
ConDefects: Ein neuer Datensatz zur Lösung der Datenlecks bei der LLM-basierten Fehlerlokalisierung und Programmreparatur [2024-arxiv] [Papier] [Repo]
Peer-Aided Repairer: Befähigung großer Sprachmodelle zur Reparatur fortgeschrittener Schüleraufgaben [2024-arxiv] [Papier]
Verbesserte Methoden zur Programmreparatur mithilfe von Refactoring mit GPT-Modellen [2024-SIGCSE TS] [Papier] [Repo]
Eine kritische Überprüfung des großen Sprachmodells zum Software-Engineering: Ein Beispiel aus Chatgpt und automatisierter Programmreparatur [2023-arxiv] [Papier] [Repo]
Automatisierte Reparatur von Programmen aus großen Sprachmodellen [2023-ICSE] [Papier] [Repo]
FixEval: Ausführungsbasierte Bewertung von Programmkorrekturen für Programmierprobleme [2023-APR] [Papier] [Repo]
Verfeinerung von ChatGPT-generiertem Code: Charakterisierung und Minderung von Codequalitätsproblemen [2023-TOSEM] [Papier] [Repo]
Beheben von Fehlern in Python-Zuweisungen mithilfe großer Sprachmodelle [2022-arixv] [Papier]
Frustriert über Probleme mit der Codequalität? LLMs können helfen! [2024-FSE/ESEC] [Papier] [Repo]
SkipAnalyzer: Ein verkörperter Agent für die Codeanalyse mit großen Sprachmodellen [2023-arxiv] [Papier] [Repo]
RAP-Gen: Retrieval-Augmented Patch Generation mit CodeT5 für die automatische Programmreparatur [2023-FSE/ESEC] [Paper] [Repo]
InferFix: End-to-End-Programmreparatur mit LLMs über Retrieval-Augmented Prompts [2023-FSE/ESEC] [Papier] [Repo]
Können LLMs Sicherheitsprobleme beheben [2023-arxiv] [Papier] [Repo]
Verbesserung der automatisierten Programmreparatur durch Domänenanpassung [2023-TOSEM] [Papier] [Repo]
Eine empirische Studie zur auf Deep Transfer Learning basierenden Programmreparatur für Kotlin-Projekte [2022-FSE/ESEC] [Papier]
TFix-Learning zur Behebung von Codierungsfehlern mit einem Text-zu-Text-Transformator [2021-PMLR] [Papier] [Repo]
Vom Code zur Korrektheit: Die letzte Meile der Codegenerierung mit hierarchischem Debugging schließen [2024-arXiv] [Papier] [Repo]
Großen Sprachmodellen das Selbst-Debuggen beibringen [2024-ICLR] [Papier]
OpenCodeInterpreter: Integration der Codegenerierung mit Ausführung und Verfeinerung [2024-arxiv] [Papier] [Repo]
ZYKLUS: Lernen, die Codegenerierung selbst zu verfeinern [2024-OOPSLA] [Papier] [Repo]
LDB: Ein großer Sprachmodell-Debugger durch Verifizieren der Laufzeitausführung Schritt für Schritt [2024-arxiv] [Papier] [Repo]
Nutzung des Print-Debugging zur Verbesserung der Codegenerierung in großen Sprachmodellen [2024-arxiv] [Papier]
SelfEvolve: Ein Code-Evolutions-Framework über große Sprachmodelle [2023-arxiv] [Papier]
Selbstverfeinerung: Iterative Verfeinerung mit Selbst-Feedback [2023-NeurIPS] [Papier] [Repo]
AgentCoder: Multi-Agent-Code-Generierung mit iterativem Testen und Optimierung [2023-arxiv] [Papier]
Selbstbearbeitung: Fehlerbewusster Code-Editor für die Codegenerierung [2023-ACL] [Papier] [Repo]
Ist Selbstreparatur ein Allheilmittel für die Codegenerierung? [2023-ICLR] [Papier] [Repo]
Domain Knowledge Matters: Verbesserung von Eingabeaufforderungen mit Korrekturvorlagen zur Reparatur von Python-Typfehlern [2024-ICSE] [Papier] [Repo]
PyTy: Reparieren statischer Typfehler in Python [2024-ICSE] [Papier] [Repo]
GPT-3-gestütztes Typfehler-Debugging: Untersuchung der Verwendung großer Sprachmodelle für die Codereparatur [2023-SLE] [Papier] [Repo]
Anleitung von ChatGPT zur Behebung von Web-UI-Tests mittels Erklärungs-Konsistenzprüfung [2023-arxiv] [Papier]
ACFIX: Anleitung von LLMs mit geminten gängigen RBAC-Praktiken zur kontextbewussten Reparatur von Zugriffskontrollschwachstellen in Smart Contracts [2024-arxiv] [Papier]
Evaluierung von ChatGPT zur Schwachstellenkorrektur bei Smart Contracts [2023-COMPSAC] [Papier] [Repo]
Über Behebung von Hardware-Sicherheitsfehlercodes durch Eingabe großer Sprachmodelle [2024-TIFS] [Papier] [Repo]
Sein Vorabdruck: Beheben von Hardware-Sicherheitsfehlern mit großen Sprachmodellen [2022-arXiv] [Papier]
HDLdebugger: Optimiertes HDL-Debugging mit großen Sprachmodellen [2024-arxiv] [Papier]
RTLFixer: Automatisches Beheben von RTL-Syntaxfehlern mit großen Sprachmodellen [2023-arxiv] [Papier]
LLM4SecHW: Nutzung eines domänenspezifischen großen Sprachmodells für das Hardware-Debugging [2023-AsianHOST] [Papier]
RAPGen: Ein Ansatz zur Behebung von Code-Ineffizienzen in Zero-Shot [2023-arxiv] [Papier]
DeepDev-PERF: Ein auf Deep Learning basierender Ansatz zur Verbesserung der Softwareleistung [2022-FSE/ESEC] [Papier] [Repo]
Evaluierung vorab trainierter Sprachmodelle zur Behebung von API-Missbrauch [2023-arxiv] [Papier] [Repo]
Beheben von Absturzfehlern mithilfe großer Sprachmodelle: Eine empirische Studie [2023-arxiv] [Papier] [Repo]
Automatisierte Testfallreparatur mithilfe von Sprachmodellen [2024-arxiv] [Papier]
Identifizieren und aktualisieren Sie Testfälle, wenn sich der Produktionscode ändert: Ein transformatorbasierter Ansatz [2023-ASE]
Baldur: Whole-Proof-Generierung und -Reparatur mit großen Sprachmodellen [2023-FSE/ESEC] [Papier]
Lost in Translation: Eine Studie über Fehler, die durch große Sprachmodelle beim Übersetzen von Code entstehen [2024-ICSE] [Papier] [Repo]
SWE-Bench: Können Sprachmodelle reale GitHub-Probleme lösen? [2024-ICLR] [Papier] [Repo]
Erkundung des Potenzials von ChatGPT bei der automatisierten Codeverfeinerung: Eine empirische Studie [2024-ICSE] [Papier] [Repo]
DrPlanner: Diagnose und Reparatur von Bewegungsplanern mithilfe großer Sprachmodelle [2024-arxiv] [Papier] [Repo]
Erkundung der Erfahrungen mit automatisierter Programmreparatur in der Praxis [2024-ICSE] [Papier]
Überprüfung der Unnatürlichkeit für die automatisierte Programmreparatur im Zeitalter großer Sprachmodelle [2024-arxiv] [papper] [repo]
Eine empirische Studie zur Einführung von ChatGPT zur Fehlerbehebung bei professionellen Entwicklern [2023-ITA] [Papier]
Nutzung eines großen Sprachmodells für die automatische Patch-Korrektheitsbewertung[2024-TSE] [Papier]
APPT steigert die automatisierte Patch-Korrektheitsvorhersage mithilfe eines vorab trainierten Sprachmodells [2024-TSE] [Papier] [Repo]
Das Beste aus beiden Welten: Kombination erlernter Einbettungen mit technischen Funktionen für eine genaue Vorhersage korrekter Patches [2023-TOSME] [Papier] [Repo]
Invalidator: Automatisierte Patch-Korrektheitsbewertung durch semantisches und syntaktisches Denken [2023-TSE] [Papier] [Repo]
PatchZero: Automatische Zero-Shot-Patch-Korrektheitsbewertung [2023-arxiv] [Papier]
Ist diese Änderung die Antwort auf dieses Problem? Korrelation von Beschreibungen von Fehlern und Codeänderungen zur Bewertung der Patch-Korrektheit [2021-ASE] [Papier] [Repo]
Bewertung des Repräsentationslernens von Codeänderungen zur Vorhersage der Patch-Korrektheit bei der Programmreparatur [2020-ASE] [Papier] [Repo]
Erforschung der parametereffizienten Feinabstimmung großer Sprachmodelle zur automatisierten Programmreparatur[2024-ASE] [Papier]
MuBench: Benchmarking der automatisierten Programmreparatur: Eine umfangreiche Studie zu realen und künstlichen Fehlern [2024-ISSTA] [Papier]
CodeEditorBench: Bewertung der Codebearbeitungsfähigkeit großer Sprachmodelle [2024-arxiv] [Papier] [Repo]
GitBug-Java: Ein reproduzierbarer Benchmark aktueller Java-Fehler [2024-arxiv] [Papier] [Repo]
SWE-Bench: Können Sprachmodelle reale GitHub-Probleme lösen? [2024-ICLR] [Papier] [Repo]
DebugBench: Bewertung der Debugfähigkeit großer Sprachmodelle [2024-arxiv] [Papier] [Repo]
ConDefects: Ein neuer Datensatz zur Lösung der Datenlecks bei der LLM-basierten Fehlerlokalisierung und Programmreparatur [2024-arxiv] [Papier] [Repo]
Eine kritische Überprüfung des großen Sprachmodells zum Software-Engineering: Ein Beispiel aus Chatgpt und automatisierter Programmreparatur [2023-arxiv] [Papier] [Repo]
CodeScope: Ein ausführungsbasierter mehrsprachiger mehrdimensionaler Multitask-Benchmark zur Bewertung von LLMs hinsichtlich Codeverständnis und -generierung [2023-arxiv] [Papier] [Repo]
FixEval: Ausführungsbasierte Bewertung von Programmkorrekturen für Programmierprobleme [2023-APR] [Papier] [Repo]
Eine Übersicht über lernbasierte automatisierte Programmreparatur [2023-TOSEM] [Papier] [Repo]
Automatische Softwarereparatur: Eine Bibliographie [2018-CSUR]-Artikel]
Automatische Softwarereparatur: Eine Umfrage [2017-TSE]-Papier]