Citation
Scénarios de réparation
Bug sémantique
Vulnérabilité de sécurité
Erreur de syntaxe
Problème de programmation
Avertissement statique
Auto-débogage
Erreur de saisie
Test de l'interface utilisateur Web
Contrat intelligent
Bogue matériel
Bug de performances
Utilisation abusive de l'API
Bogue de crash
Cas de test
Preuve formelle
Bug de traduction
Problème GitHub
Révision du code
Planificateur de mouvement
? Étude humaine
? Évaluation de l'exactitude des correctifs
Référence
? Enquêtes TAEG connexes
@article{zhang2024survey, title={Une revue systématique de la littérature sur les grands modèles linguistiques pour la réparation automatisée de programmes}, author={Zhang, Quanjun et Fang, Chunrong et Xie, Yang et Ma, Yuxiang et Sun, Weisong et Yang, Yun et Chen , Zhenyu}, journal={préimpression arXiv arXiv:2405.01466} année={2024}}
ajouter des études basées sur des agents SE pour les problèmes GitHub
ajouter les articles ISSTA 2024
publier une nouvelle version de cet article sur arXiv
CORE : Résoudre les problèmes de qualité du code à l'aide de LLM [2024-FSE]
Correction rapide : technologie de réparation automatique des vulnérabilités basée sur l'ingénierie rapide [2024-ICNC]
Évaluation de grands modèles de langage pour la réparation de vulnérabilités réelles dans le code C/C++[2024-IWSPA]
Étude des capacités des grands modèles de langage pour la réparation automatique du code dans Python[2024-Cluster Computing]
LPR : Réduction de programme assistée par de grands modèles linguistiques[2024-ISSTA]
Une étude de cas de LLM pour la réparation automatisée des vulnérabilités : évaluation de l'impact du raisonnement et des commentaires sur la validation des correctifs (2024年7月) AIware 2024
Quand les grands modèles de langage sont confrontés à la réparation automatique des programmes au niveau du référentiel : dans quelle mesure ont-ils réussi ? [2024-ICSE]
Exploration du réglage fin efficace des paramètres d'un grand modèle de langage pour la réparation automatisée de programmes [2024-ASE]
Explorer le potentiel de la réparation de programmes basés sur une suite de tests conversationnels sur SWE-bench [2024-arXiv]
Explorer et améliorer la robustesse de la réparation automatisée des programmes basée sur LLM avec des tests métamorphiques [2024-arXiv] [article]
Diviser pour régner : automatisation des révisions de code via la localisation et la révision [2024-TOSEM]
Du code à l'exactitude : franchir le dernier kilomètre de la génération de code avec le débogage hiérarchique [2024-arXiv] [papier] [dépôt]
Réparation automatisée de programmes pour les missions d'introduction à la programmation [2024-TLT] [papier]
Réparation automatisée du code d'IA avec de grands modèles de langage et vérification formelle [2024-arXiv] [papier]
CraftRTL : génération de données synthétiques de haute qualité pour les modèles de code Verilog avec représentations non textuelles correctes par construction et réparation de code ciblée [2024-arXiv-NVIDIA] [papier]
Analyse comparative de la réparation automatisée des programmes : une étude approfondie sur les bogues réels et artificiels [2024-ISSTA] [papier]
Réparation automatisée du programme via conversation : correction de 162 bogues sur 337 pour 0,42 $ chacun à l'aide de chatgpt[2024-ISSTA] [papier]
Exploitation d'un modèle de langage étendu pour l'évaluation automatique de l'exactitude des correctifs [2024-TSE] [article]
Réparation automatisée des programmes pour les bogues de variabilité dans les systèmes de gamme de produits logiciels [2024-JSS] [article]
PyBugHive : une base de données complète de bogues Python validés manuellement et reproductibles [Accès 2024-IEEE] [papier]
Comment comprendre l’ensemble du référentiel de logiciels ? [2024-arXiv] [papier]
Réparation automatisée des programmes pour les bogues de variabilité dans les systèmes de gamme de produits logiciels [2024-JSS] [article]
Une approche de débogage unifiée via une synergie multi-agents basée sur LLM [2024-arxiv] [papier] [dépôt]
Jusqu’où pouvons-nous aller avec la réparation pratique des programmes au niveau des fonctions ? [2024-arxiv] [papier] [dépôt]
Réparation automatisée du programme via conversation : correction de 162 bogues sur 337 pour 0,42 $ chacun à l'aide de chatgpt[2024-ISSTA] [papier]
Ancienne version : Poursuivez la conversation : correction de 162 bogues sur 337 pour 0,42 $ chacun à l'aide de ChatGPT [2023-arxiv] [papier]
Une nouvelle approche pour la réparation automatique de programmes à l'aide d'une traduction aller-retour avec de grands modèles de langage [2024-arxiv] [papier] [dépôt]
Hors contexte : quelle est l'importance du contexte local dans la réparation des programmes neuronaux ? [2024-ICSE] [article] [dépôt]
Ajustement multi-objectifs pour une réparation améliorée des programmes avec les LLM [2024-arxiv] [article]
Alignement des LLM pour la réparation de programmes sans FL [2024-arxiv] [papier]
ContrastRepair : Amélioration de la réparation automatisée de programmes basée sur la conversation via des paires de cas de test contrastés [2024-arxiv] [article]
Explorer le potentiel des modèles de code linguistiques pré-entraînés pour la réparation automatisée de programmes [2024-Electronics] [papier]
CigaR : Réparation de programmes rentables avec les LLM [2024-arxiv] [papier] [dépôt]
Le problème de sélection des faits dans la réparation de programmes basés sur LLM [2024-arxiv] [article] [dépôt]
Une nouvelle approche pour la réparation automatisée de programmes à l'aide d'une traduction aller-retour avec de grands modèles de langage [2024-arxiv] [papier] [dépôt]
RepairAgent : un agent autonome basé sur LLM pour la réparation de programmes [2024-arxiv] [papier]
Une plongée approfondie dans les grands modèles de langage pour la localisation et la réparation automatisées des bogues [2024-FSE/ESEC] [article]
Réparation automatisée de programmes à l'ère des grands modèles de langage pré-entraînés [2023-ICSE] [papier] [dépôt]
La réparation est presque terminée : réparation de programmes multilingues avec des LLM [2023-AAAI] [article]
Sélection d'invites basée sur la récupération pour l'apprentissage en quelques étapes lié au code [2023-ICSE] [papier] [dépôt]
Qu'est-ce qui fait de bonnes démonstrations en contexte pour les tâches d'intelligence de code avec LLM ? [2023-ASE] [papier] [dépôt]
Programmation entièrement autonome avec de grands modèles de langage [2023-GECCO] [papier] [dépôt]
Réparation automatisée de programmes à l'aide de modèles génératifs pour le remplissage de code [2023-AIED] [papier] [dépôt]
STEAM : simulation du comportement interactif des programmeurs pour la correction automatique des bogues [2023-arxiv] [article]
Réparation de programmes automatisés conversationnels [2023-arxiv] [papier]
ChatGPT est-il l'assistant de programmation ultime ? Jusqu'où se trouve-t-il ? [2023-arxiv] [papier] [dépôt]
Utilisation de grands modèles linguistiques pour la localisation et la correction des bogues [2023-iCAST] [papier]
Une étude empirique sur la mise au point de modèles de code en grand langage pour la réparation automatisée de programmes [2023-ASE] [papier] [dépôt]
Une évaluation de l'efficacité de ChatGPT d'OpenAI pour la correction automatisée des bogues du programme Python à l'aide de QuixBugs [2023-iSEMANTIC] [article]
Débogage automatisé explicable via le débogage scientifique basé sur un grand modèle de langage [2023-arxiv] [article]
Les bonnes invites pour le travail : réparer les défauts de révision du code avec un modèle de langage étendu [2023-arxiv] [papier]
Impact des modèles de langage de code sur la réparation automatisée des programmes [2023-ICSE] [article] [dépôt]
Vers la génération de modifications de code fonctionnellement correctes à partir de descriptions de problèmes en langage naturel [2023-arxiv] [article]
L'hypothèse de la chirurgie plastique à l'ère des grands modèles linguistiques [2023-ASE] [article] [dépôt]
Explorer les limites de ChatGPT dans les applications de sécurité logicielle [2023-arxiv] [article]
CodeScope : une référence multidimensionnelle multitâche multilingue basée sur l'exécution pour évaluer les LLM sur la compréhension et la génération de code [2023-arxiv] [article] [dépôt]
Amélioration de la réparation automatisée des programmes grâce à un réglage fin et à une ingénierie rapide [2023-arxiv] [papier] [dépôt]
Modèles de langage de formation pour les commentaires de programmation à l'aide d'outils de réparation automatisés [2023-AIED] [papier] [dépôt]
RepairLLaMA : Représentations efficaces et adaptateurs affinés pour la réparation de programmes [2023-arxiv] [papier] [dépôt]
Édition automatisée de code avec Search-Generate-Modify [2023-arxiv] [paper] [repo]
RAP-Gen : Génération de correctifs augmentée par récupération avec CodeT5 pour la réparation automatique de programmes [2023-FSE/ESEC] [papier] [dépôt]
Réparation de programmes neuronaux avec analyse de dépendance de programme et mécanisme de filtrage efficace [2023-arxiv] [papier]
Café : Boostez vos LLM de code en corrigeant les bugs avec des commentaires [2023-arxiv] [papier] [dépôt]
Une étude sur la conception rapide, les avantages et les limites de ChatGPT pour la réparation des programmes d'apprentissage en profondeur [2023-arxiv] [article]
Copiloter les copilotes : fusionner des modèles de langage volumineux avec des moteurs de complétion pour la réparation automatisée de programmes [2023-FSE/ESEC] [article] [dépôt]
Gamma : revisiter la réparation automatisée de programmes basée sur des modèles via la prédiction de masque [2023-ASE] [papier] [dépôt]
Une étude approfondie sur l'architecture des modèles et la représentation des programmes dans le domaine de la réparation automatisée des programmes basée sur l'apprentissage [2023-APR] [papier] [dépôt]
Améliorer la réparation automatisée des programmes avec l'adaptation du domaine [2023-TOSEM] [papier] [dépôt]
Amélioration des modèles de langage de code pour la réparation des programmes grâce à un cadre de réglage fin des programmes [2023-ICSME] [article]
L'utilisation potentielle de ChatGPT pour le débogage et la correction de bogues [2023-] [article]
CIRCLE : Réparation continue dans les langages de programmation [2022-ISSTA] [papier] [dépôt]
Vers la réparation du programme JavaScript avec Generative Pre-trained Transformer (GPT-2) [2022-APR] [papier] [dépôt]
Correction de bugs avec Transformer via une grammaire d'édition neuro-symbolique [2022-ICLR] [papier]
Génération de correctifs avec des modèles de langage : faisabilité et comportement de mise à l'échelle [2022-ICLR] [article]
Le codex d'OpenAI peut-il corriger les bugs ? : une évaluation sur QuixBugs [2022-APR] [article]
Une analyse des performances de correction automatique des bogues de ChatGPT [2022-APR] [papier] [dépôt]
Moins de formation, plus de réparation s'il vous plaît : revisiter la réparation automatisée des programmes via l'apprentissage zéro-shot [2022-FSE/ESEC] [paer] [repo]
Réparation du programme de cadrage en tant qu'achèvement du code [2022-APR] [papier] [dépôt]
DEAR Une nouvelle approche basée sur l'apprentissage profond pour la réparation automatisée de programmes [2022-ICSE] [papier] [dépôt]
Génération de corrections de bogues à l'aide de transformateurs pré-entraînés [2021-PLDI] [papier]
Application de CodeBERT pour la réparation automatisée des programmes de bogues simples Java [2021-MSR] [papier] [dépôt]
Traduction automatique neuronale CURE Code-Aware pour la réparation automatique de programmes [2021-ICSE] [papier] [dépôt]
Comment comprendre l’ensemble du référentiel de logiciels ? [2024-arXiv] [papier]
Réparation automatisée du code d'IA avec de grands modèles de langage et vérification formelle [2024-arXiv] [papier]
NAVRepair : Réparation des vulnérabilités du code C/C++ prenant en compte le type de nœud [2024-arxiv] [papier]
Réparation automatisée améliorée des vulnérabilités du code à l'aide de grands modèles de langage [2024-arxiv] [papier]
Loin des yeux, loin de l'esprit : meilleure réparation automatique des vulnérabilités en élargissant les plages et les sources d'entrée [2024-ICSE] [papier] [dépôt]
Une étude sur la réparation des vulnérabilités dans les programmes JavaScript avec de grands modèles de langage [2024-arxiv] [papier] [dépôt]
Invite de chaîne de pensée de grands modèles de langage pour découvrir et corriger les vulnérabilités logicielles [2024-arxiv] [article]
Réparation automatisée des vulnérabilités logicielles basée sur un modèle et pré-entraînée : où en sommes-nous ? [2023-TDSC] [papier] [dépôt]
Examen de la réparation des vulnérabilités sans tir avec de grands modèles de langage [2023-S&P] [papier] [dépôt]
Une étude empirique sur la mise au point de modèles de code en grand langage pour la réparation automatisée de programmes [2023-ASE] [papier] [dépôt]
Une nouvelle ère dans la sécurité logicielle : vers des logiciels d'auto-réparation via de grands modèles de langage et une vérification formelle [2023-arxiv] [article]
Explorer les limites de ChatGPT dans les applications de sécurité logicielle [2023-arxiv] [article]
ZeroLeak : Utilisation de LLM pour des correctifs de canal secondaire évolutifs et rentables [2023-arxiv] [article]
Comment ChatGPT résout le problème de gestion des vulnérabilités [2023-arxiv] [paper] [repo]
Quelle est l'efficacité des réseaux de neurones pour corriger les vulnérabilités de sécurité [2023-ISSTA] [papier] [dépôt]
Réparation automatisée des vulnérabilités inspirée du transformateur de vision [2023-TOSEM] [papier] [dépôt]
Les grands modèles de langage peuvent-ils trouver et réparer les logiciels vulnérables ? [2023-arxiv] [papier]
VulRepair : une réparation automatisée des vulnérabilités logicielles basée sur T5 [2022-FSE/ESEC] [papier] [dépôt]
Une nouvelle approche pour la réparation automatisée de programmes à l'aide d'une traduction aller-retour avec de grands modèles de langage [2024-arxiv] [papier] [dépôt]
La réparation est presque terminée : réparation de programmes multilingues avec des LLM [2023-AAAI] [article]
Correction des erreurs de compilation de Rust à l'aide de LLM [2023-arxiv] [papier]
Une étude empirique sur la mise au point de modèles de code en grand langage pour la réparation automatisée de programmes [2023-ASE] [papier] [dépôt]
Une chaîne de solutions basées sur l'IA pour résoudre les FQN et corriger les erreurs de syntaxe dans le code partiel [2023-arxiv] [papier] [dépôt]
Les bonnes invites pour le travail : réparer les défauts de révision du code avec un modèle de langage étendu [2023-arxiv] [papier]
SYNSHINE : correction améliorée des erreurs de syntaxe [2022-TSE] [papier] [dépôt]
CraftRTL : génération de données synthétiques de haute qualité pour les modèles de code Verilog avec représentations non textuelles correctes par construction et réparation de code ciblée [2024-arXiv-NVIDIA] [papier]
Une approche de débogage unifiée via une synergie multi-agents basée sur LLM [2024-arXiv] [papier] [dépôt]
PyDex : Réparer les bogues dans les devoirs d'introduction à Python à l'aide de LLM [2024-OOPSLA] [papier] [dépôt]
DebugBench : évaluation de la capacité de débogage de grands modèles de langage [2024-arxiv] [papier] [dépôt]
ContrastRepair : Amélioration de la réparation automatisée de programmes basée sur la conversation via des paires de cas de test contrastés [2024-arxiv] [article]
ConDefects : un nouvel ensemble de données pour répondre aux problèmes de fuite de données pour la localisation des défauts et la réparation des programmes basés sur LLM [2024-arxiv] [papier] [dépôt]
Réparateur assisté par les pairs : permettre à de grands modèles linguistiques de réparer les devoirs avancés des étudiants [2024-arxiv] [article]
Méthodes améliorées de réparation de programmes à l'aide de la refactorisation avec des modèles GPT [2024-SIGCSE TS] [papier] [dépôt]
Un examen critique d'un grand modèle de langage sur le génie logiciel : un exemple de chatgpt et de réparation automatisée de programmes [2023-arxiv] [papier] [dépôt]
Réparation automatisée de programmes à partir de grands modèles de langage [2023-ICSE] [papier] [dépôt]
FixEval : évaluation basée sur l'exécution des correctifs de programme pour les problèmes de programmation [2023-APR] [papier] [dépôt]
Affiner le code généré par ChatGPT : caractériser et atténuer les problèmes de qualité du code [2023-TOSEM] [papier] [dépôt]
Réparation de bugs dans les affectations Python à l'aide de grands modèles de langage [2022-arixv] [paper]
Frustré par les problèmes de qualité du code ? Les LLM peuvent vous aider ! [2024-FSE/ESEC] [article] [dépôt]
SkipAnalyzer : un agent incorporé pour l'analyse de code avec de grands modèles de langage [2023-arxiv] [papier] [dépôt]
RAP-Gen : Génération de correctifs augmentée par récupération avec CodeT5 pour la réparation automatique de programmes [2023-FSE/ESEC] [papier] [dépôt]
InferFix : réparation de programme de bout en bout avec des LLM sur des invites de récupération augmentées [2023-FSE/ESEC] [papier] [dépôt]
Les LLM peuvent-ils corriger les problèmes de sécurité [2023-arxiv] [papier] [dépôt]
Améliorer la réparation automatisée des programmes avec l'adaptation du domaine [2023-TOSEM] [papier] [dépôt]
Une étude empirique sur la réparation de programmes basés sur l'apprentissage par transfert profond pour les projets Kotlin [2022-FSE/ESEC] [article]
TFix-Apprendre à corriger les erreurs de codage avec un transformateur de texte en texte [2021-PMLR] [papier] [dépôt]
Du code à l'exactitude : franchir le dernier kilomètre de la génération de code avec le débogage hiérarchique [2024-arXiv] [papier] [dépôt]
Enseigner l'auto-débogage de grands modèles de langage [2024-ICLR] [article]
OpenCodeInterpreter : Intégration de la génération de code avec exécution et raffinement [2024-arxiv] [papier] [dépôt]
CYCLE : Apprendre à affiner soi-même la génération de code [2024-OOPSLA] [papier] [repo]
LDB : un débogueur de modèle de langage étendu via la vérification de l'exécution du runtime étape par étape [2024-arxiv] [papier] [dépôt]
Tirer parti du débogage d'impression pour améliorer la génération de code dans les grands modèles de langage [2024-arxiv] [papier]
SelfEvolve : un cadre d'évolution de code via de grands modèles de langage [2023-arxiv] [papier]
Auto-raffinement : raffinement itératif avec auto-feedback [2023-NeurIPS] [article] [dépôt]
AgentCoder : génération de code multi-agent avec tests itératifs et optimisation [2023-arxiv] [papier]
Auto-édition : éditeur de code sensible aux erreurs pour la génération de code [2023-ACL] [papier] [dépôt]
L'auto-réparation est-elle une solution miracle pour la génération de code ? [2023-ICLR] [article] [dépôt]
La connaissance du domaine est importante : amélioration des invites avec des modèles de correctifs pour réparer les erreurs de type Python [2024-ICSE] [papier] [dépôt]
PyTy : Réparer les erreurs de type statique en Python [2024-ICSE] [papier] [dépôt]
Débogage d'erreurs de type alimenté par GPT-3 : Enquête sur l'utilisation de grands modèles de langage pour la réparation de code [2023-SLE] [papier] [dépôt]
Guider ChatGPT pour corriger les tests de l'interface utilisateur Web via la vérification de la cohérence des explications [2023-arxiv] [papier]
ACFIX : Guider les LLM avec des pratiques RBAC communes extraites pour une réparation contextuelle des vulnérabilités de contrôle d'accès dans les contrats intelligents [2024-arxiv] [article]
Évaluation de ChatGPT pour la correction des vulnérabilités des contrats intelligents [2023-COMPSAC] [papier] [dépôt]
Sur les corrections de codes de bogues de sécurité matérielle en invitant des modèles de langage volumineux [2024-TIFS] [papier] [dépôt]
Sa pré-impression : Correction des bogues de sécurité matérielle avec de grands modèles de langage [2022-arXiv] [papier]
HDLdebugger : rationaliser le débogage HDL avec de grands modèles de langage [2024-arxiv] [papier]
RTLFixer : correction automatique des erreurs de syntaxe RTL avec de grands modèles de langage [2023-arxiv] [papier]
LLM4SecHW : Exploitation d'un grand modèle de langage spécifique au domaine pour le débogage matériel [2023-AsianHOST] [papier]
RAPGen : Une approche pour corriger les inefficacités du code dans Zero-Shot [2023-arxiv] [papier]
DeepDev-PERF : Une approche basée sur l'apprentissage profond pour améliorer les performances logicielles [2022-FSE/ESEC] [papier] [dépôt]
Évaluation de modèles de langage pré-entraînés pour réparer les abus d'API [2023-arxiv] [papier] [dépôt]
Résoudre les bugs de crash via de grands modèles de langage : une étude empirique [2023-arxiv] [papier] [dépôt]
Réparation automatisée de cas de test à l'aide de modèles de langage [2024-arxiv] [papier]
Identifier et mettre à jour les cas de test lorsque le code de production change : une approche basée sur le transformateur [2023-ASE]
Baldur : Génération et réparation complètes avec de grands modèles de langage [2023-FSE/ESEC] [article]
Lost in Translation : une étude des bogues introduits par les grands modèles de langage lors de la traduction du code [2024-ICSE] [papier] [dépôt]
SWE-bench : les modèles linguistiques peuvent-ils résoudre les problèmes réels de GitHub ? [2024-ICLR] [article] [dépôt]
Explorer le potentiel de ChatGPT dans le raffinement automatisé du code : une étude empirique [2024-ICSE] [article] [dépôt]
DrPlanner : Diagnostic et réparation des planificateurs de mouvement à l'aide de grands modèles de langage [2024-arxiv] [papier] [dépôt]
Explorer les expériences de réparation automatisée de programmes en pratique [2024-ICSE] [article]
Revisiter le manque de naturel pour la réparation automatisée des programmes à l'ère des grands modèles de langage [2024-arxiv] [papper] [repo]
Une étude empirique de l'adoption de ChatGPT pour la correction de bogues parmi les développeurs professionnels [2023-ITA] [article]
Exploitation d'un modèle de langage étendu pour l'évaluation automatique de l'exactitude des correctifs [2024-TSE] [article]
APPT booste la prédiction automatisée de l'exactitude des correctifs via un modèle de langage pré-entraîné [2024-TSE] [papier] [dépôt]
Le meilleur des deux mondes : combiner des intégrations apprises avec des fonctionnalités d'ingénierie pour une prédiction précise des correctifs corrects [2023-TOSME] [papier] [dépôt]
Invalidateur : évaluation automatisée de l'exactitude des correctifs via un raisonnement sémantique et syntaxique [2023-TSE] [article] [dépôt]
PatchZero : évaluation automatique de l'exactitude des correctifs Zero-Shot [2023-arxiv] [papier]
Ce changement est-il la réponse à ce problème ? Corrélation des descriptions des bogues et des modifications de code pour évaluer l'exactitude des correctifs [2021-ASE] [papier] [dépôt]
Évaluation de l'apprentissage des représentations des modifications de code pour prédire l'exactitude des correctifs lors de la réparation de programmes [2020-ASE] [article] [dépôt]
Exploration du réglage fin efficace des paramètres d'un grand modèle de langage pour la réparation automatisée de programmes [2024-ASE] [article]
MuBench : Analyse comparative de la réparation automatisée des programmes : une étude approfondie sur les bogues réels et artificiels [2024-ISSTA] [article]
CodeEditorBench : évaluation de la capacité d'édition de code de grands modèles de langage [2024-arxiv] [papier] [dépôt]
GitBug-Java : une analyse comparative reproductible des bogues Java récents [2024-arxiv] [papier] [dépôt]
SWE-bench : les modèles linguistiques peuvent-ils résoudre les problèmes réels de GitHub ? [2024-ICLR] [article] [dépôt]
DebugBench : évaluation de la capacité de débogage de grands modèles de langage [2024-arxiv] [papier] [dépôt]
ConDefects : un nouvel ensemble de données pour répondre aux problèmes de fuite de données pour la localisation des défauts et la réparation des programmes basés sur LLM [2024-arxiv] [papier] [dépôt]
Un examen critique d'un grand modèle de langage sur le génie logiciel : un exemple de chatgpt et de réparation automatisée de programmes [2023-arxiv] [papier] [dépôt]
CodeScope : une référence multidimensionnelle multitâche multilingue basée sur l'exécution pour évaluer les LLM sur la compréhension et la génération de code [2023-arxiv] [article] [dépôt]
FixEval : évaluation basée sur l'exécution des correctifs de programme pour les problèmes de programmation [2023-APR] [papier] [dépôt]
Une enquête sur la réparation de programmes automatisés basée sur l'apprentissage [2023-TOSEM] [papier] [dépôt]
Réparation automatique de logiciels : article bibliographique [2018-CSUR]]
Réparation automatique de logiciels : une enquête [article 2017-TSE]]