Citação
Cenários de reparo
Bug Semântico
Vulnerabilidade de segurança
Erro de sintaxe
Problema de programação
Aviso estático
Autodepuração
Erro de tipo
Teste de IU da Web
Contrato Inteligente
Bug de hardware
Bug de desempenho
Uso indevido de API
Bug de falha
Caso de teste
Prova Formal
Bug de tradução
Problema no GitHub
Revisão de código
Planejador de movimento
? Estudo Humano
? Avaliação de correção de patch
Referência
? Pesquisas APR relacionadas
@artigo{zhang2024survey, title={Uma revisão sistemática da literatura sobre grandes modelos de linguagem para reparo automatizado de programas}, autor={Zhang, Quanjun e Fang, Chunrong e Xie, Yang e Ma, Yuxiang e Sun, Weisong e Yang, Yun e Chen , Zhenyu}, diário = {pré-impressão arXiv arXiv:2405.01466} ano={2024}}
adicionar estudos baseados em agente SE para problemas do GitHub
adicionar artigos ISSTA 2024
lançar uma nova versão deste artigo no arXiv
CORE: Resolvendo problemas de qualidade de código usando LLMs [2024-FSE]
Correção imediata: tecnologia de reparo automático de vulnerabilidades baseada em engenharia imediata [2024-ICNC]
Avaliando grandes modelos de linguagem para reparo de vulnerabilidades do mundo real em código C/C++[2024-IWSPA]
Investigando capacidades de grandes modelos de linguagem para reparo automático de código em Python [2024-Cluster Computing]
LPR: Redução do Programa Auxiliado por Modelos de Grandes Linguagens[2024-ISSTA]
Um estudo de caso de LLM para reparo automatizado de vulnerabilidades: avaliando o impacto do raciocínio e feedback de validação de patch (2024, 7 de julho) AIware 2024
Quando grandes modelos de linguagem enfrentam reparos automáticos de programas em nível de repositório: quão bem eles se saíram? [2024-ICSE]
Explorando o ajuste fino com eficiência de parâmetros de modelos de linguagem grande no reparo automatizado de programas [2024-ASE]
Explorando o potencial de reparo de programa baseado em conjunto de testes de conversação no SWE-bench [2024-arXiv]
Explorando e aumentando a robustez do reparo automatizado de programas baseado em LLM com testes metamórficos[2024-arXiv] [artigo]
Dividir e conquistar: automatizando revisões de código por meio de localização e revisão [2024-TOSEM]
Do código à correção: fechando a última milha da geração de código com depuração hierárquica [2024-arXiv] [paper] [repo]
Reparo automatizado de programa para tarefas introdutórias de programação [2024-TLT] [artigo]
Reparo automatizado de código de IA com grandes modelos de linguagem e verificação formal [2024-arXiv] [artigo]
CraftRTL: geração de dados sintéticos de alta qualidade para modelos de código Verilog com representações não textuais corretas por construção e reparo de código direcionado [2024-arXiv-NVIDIA] [artigo]
Comparando o reparo automatizado de programas: um estudo extensivo sobre bugs do mundo real e artificiais [2024-ISSTA] [artigo]
Reparo automatizado de programas por meio de conversa: corrigindo 162 de 337 bugs por US$ 0,42 cada usando chatgpt[2024-ISSTA] [artigo]
Aproveitando o modelo de linguagem grande para avaliação automática de correção de patches [2024-TSE] [artigo]
Reparo automatizado de programas para bugs de variabilidade em sistemas de linha de produtos de software[2024-JSS] [artigo]
PyBugHive: um banco de dados abrangente de bugs Python reproduzíveis e validados manualmente [acesso 2024-IEEE] [artigo]
Como entender todo o repositório de software? [2024-arXiv] [artigo]
Reparo automatizado de programas para bugs de variabilidade em sistemas de linha de produtos de software[2024-JSS] [artigo]
Uma abordagem de depuração unificada por meio de sinergia multiagente baseada em LLM [2024-arxiv] [artigo] [repo]
Até onde podemos ir com o reparo prático do programa em nível de função? [2024-arxiv] [artigo] [repo]
Reparo automatizado de programas por meio de conversa: corrigindo 162 de 337 bugs por US$ 0,42 cada usando chatgpt[2024-ISSTA] [artigo]
Versão antiga: Mantenha a conversa: corrigindo 162 de 337 bugs por US$ 0,42 cada usando ChatGPT [2023-arxiv] [artigo]
Uma nova abordagem para reparo automático de programas usando tradução de ida e volta com modelos de linguagem grande [2024-arxiv] [paper] [repo]
Fora do contexto: qual a importância do contexto local no reparo do programa neural? [2024-ICSE] [artigo] [repo]
Ajuste fino multiobjetivo para reparo aprimorado de programas com LLMs [2024-arxiv] [artigo]
Alinhando LLMs para reparo de programa sem FL [2024-arxiv] [artigo]
ContrastRepair: Aprimorando o reparo automatizado de programas baseado em conversação por meio de pares de casos de teste contrastantes [2024-arxiv] [artigo]
Explorando o potencial de modelos de linguagem de código pré-treinados para reparo automatizado de programas [2024-Electronics] [artigo]
CigaR: Reparo de programa econômico com LLMs [2024-arxiv] [artigo] [repo]
O problema de seleção de fatos no reparo de programa baseado em LLM [2024-arxiv] [artigo] [repo]
Uma nova abordagem para reparo automatizado de programas usando tradução de ida e volta com modelos de linguagem grande [2024-arxiv] [artigo] [repo]
RepairAgent: um agente autônomo baseado em LLM para reparo de programas [2024-arxiv] [artigo]
Um mergulho profundo em grandes modelos de linguagem para localização e reparo automatizado de bugs [2024-FSE/ESEC] [artigo]
Reparo automatizado de programas na era dos grandes modelos de linguagem pré-treinados [2023-ICSE] [artigo] [repo]
O reparo está quase na geração: reparo de programa multilíngue com LLMs [2023-AAAI] [artigo]
Seleção de prompt baseada em recuperação para aprendizagem rápida relacionada ao código [2023-ICSE] [artigo] [repo]
O que constitui boas demonstrações contextualizadas para tarefas de inteligência de código com llms? [2023-ASE] [artigo] [repo]
Programação totalmente autônoma com grandes modelos de linguagem [2023-GECCO] [artigo] [repo]
Reparo automatizado de programa usando modelos generativos para preenchimento de código [2023-AIED] [artigo] [repo]
STEAM: Simulando o comportamento interativo de programadores para correção automática de bugs [2023-arxiv] [artigo]
Reparo de programa automatizado de conversação [2023-arxiv] [artigo]
ChatGPT é o assistente de programação definitivo – até que ponto? [2023-arxiv] [artigo] [repo]
Usando modelos de linguagem grande para localização e correção de bugs [2023-iCAST] [artigo]
Um estudo empírico sobre o ajuste fino de modelos de código em grandes linguagens para reparo automatizado de programas [2023-ASE] [artigo] [repo]
Uma avaliação da eficácia do ChatGPT da OpenAI para correção automatizada de bugs de programas Python usando QuixBugs [2023-iSEMANTIC] [artigo]
Depuração automatizada explicável por meio de depuração científica baseada em modelo de linguagem grande [2023-arxiv] [artigo]
As instruções certas para o trabalho: reparar defeitos de revisão de código com modelo de linguagem grande [2023-arxiv] [artigo]
Impacto dos modelos de linguagem de código no reparo automatizado de programas [2023-ICSE] [artigo] [repo]
Rumo à geração de edições de código funcionalmente corretas a partir de descrições de problemas em linguagem natural [2023-arxiv] [artigo]
A hipótese da cirurgia plástica na era dos grandes modelos de linguagem [2023-ASE] [artigo] [repo]
Explorando os limites do ChatGPT em aplicativos de segurança de software [2023-arxiv] [artigo]
CodeScope: um benchmark multidimensional multitarefa multilíngue baseado em execução para avaliar LLMs na compreensão e geração de código [2023-arxiv] [artigo] [repo]
Aprimorando o reparo automatizado de programas por meio de ajuste fino e engenharia imediata [2023-arxiv] [paper] [repo]
Modelos de linguagem de treinamento para feedback de programação usando ferramentas de reparo automatizadas [2023-AIED] [artigo] [repo]
RepairLLaMA: representações eficientes e adaptadores ajustados para reparo de programa [2023-arxiv] [paper] [repo]
Edição automatizada de código com Search-Generate-Modify [2023-arxiv] [paper] [repo]
RAP-Gen: Geração de patch aumentada de recuperação com CodeT5 para reparo automático de programa [2023-FSE/ESEC] [artigo] [repo]
Reparo de programa neural com análise de dependência de programa e mecanismo de filtro eficaz [2023-arxiv] [artigo]
Café: Impulsione seus LLMs de código corrigindo bugs com feedback [2023-arxiv] [artigo] [repo]
Um estudo sobre design rápido, vantagens e limitações do ChatGPT para reparo do programa de aprendizado profundo [2023-arxiv] [artigo]
Copilotando os copilotos: fundindo grandes modelos de linguagem com mecanismos de conclusão para reparo automatizado de programas [2023-FSE/ESEC] [artigo] [repo]
Gamma: Revisitando o reparo automatizado de programa baseado em modelo por meio de previsão de máscara [2023-ASE] [artigo] [repo]
Um extenso estudo sobre arquitetura de modelo e representação de programa no domínio de reparo automatizado de programa baseado em aprendizagem [2023-APR] [artigo] [repo]
Melhorando o reparo automatizado de programas com adaptação de domínio [2023-TOSEM] [artigo] [repo]
Aprimorando modelos de linguagem de código para reparo de programas por meio de estrutura de ajuste fino curricular [2023-ICSME] [artigo]
O uso potencial do ChatGPT para depuração e correção de bugs [2023-] [artigo]
CÍRCULO: Reparo contínuo em linguagens de programação [2022-ISSTA] [artigo] [repo]
Rumo ao reparo do programa JavaScript com transformador generativo pré-treinado (GPT-2) [2022-APR] [artigo] [repo]
Corrija bugs com o Transformer por meio de uma gramática de edição neural-simbólica [2022-ICLR] [artigo]
Geração de patches com modelos de linguagem: viabilidade e comportamento de escalonamento [2022-ICLR] [artigo]
O códice da OpenAI pode corrigir bugs?: uma avaliação no QuixBugs [2022-APR] [artigo]
Uma análise do desempenho da correção automática de bugs do ChatGPT [2022-APR] [artigo] [repo]
Menos treinamento, mais reparos, por favor: revisitando o reparo automatizado de programas por meio de aprendizagem zero-shot [2022-FSE/ESEC] [paer] [repo]
Enquadramento do reparo do programa como conclusão de código [2022-APR] [artigo] [repo]
DEAR, uma nova abordagem baseada em aprendizado profundo para reparo automatizado de programas [2022-ICSE] [artigo] [repo]
Gerando correções de bugs usando transformadores pré-treinados [2021-PLDI] [artigo]
Aplicando CodeBERT para reparo automatizado de bugs simples de Java [2021-MSR] [artigo] [repo]
Tradução automática neural com reconhecimento de código CURE para reparo automático de programa [2021-ICSE] [artigo] [repo]
Como entender todo o repositório de software? [2024-arXiv] [artigo]
Reparo automatizado de código de IA com grandes modelos de linguagem e verificação formal [2024-arXiv] [artigo]
NAVRepair: Reparo de vulnerabilidade de código C/C++ com reconhecimento de tipo de nó [2024-arxiv] [artigo]
Reparo automatizado aprimorado de vulnerabilidade de código usando modelos de linguagem grande [2024-arxiv] [artigo]
Longe da vista, longe da mente: melhor reparo automático de vulnerabilidades ampliando os intervalos e fontes de entrada [2024-ICSE] [artigo] [repo]
Um estudo de reparo de vulnerabilidades em programas JavaScript com grandes modelos de linguagem [2024-arxiv] [artigo] [repo]
Solicitação de cadeia de pensamento de grandes modelos de linguagem para descobrir e corrigir vulnerabilidades de software [2024-arxiv] [artigo]
Reparo automatizado de vulnerabilidade de software baseado em modelo pré-treinado: até onde estamos? [2023-TDSC] [artigo] [repo]
Examinando o reparo de vulnerabilidade zero-shot com modelos de linguagem grande [2023-S&P] [artigo] [repo]
Um estudo empírico sobre o ajuste fino de modelos de código em grandes linguagens para reparo automatizado de programas [2023-ASE] [artigo] [repo]
Uma nova era em segurança de software: rumo a um software autocurável por meio de grandes modelos de linguagem e verificação formal [2023-arxiv] [artigo]
Explorando os limites do ChatGPT em aplicativos de segurança de software [2023-arxiv] [artigo]
ZeroLeak: Usando LLMs para Patching de Canal Lateral Escalável e Econômico [2023-arxiv] [artigo]
Como o ChatGPT está resolvendo o problema de gerenciamento de vulnerabilidades [2023-arxiv] [artigo] [repo]
Quão eficazes são as redes neurais para corrigir vulnerabilidades de segurança [2023-ISSTA] [artigo] [repo]
Reparo automatizado de vulnerabilidade inspirado no Vision Transformer [2023-TOSEM] [artigo] [repo]
Grandes modelos de linguagem podem encontrar e corrigir software vulnerável? [2023-arxiv] [artigo]
VulRepair: um reparo automatizado de vulnerabilidade de software baseado em T5 [2022-FSE/ESEC] [artigo] [repo]
Uma nova abordagem para reparo automatizado de programas usando tradução de ida e volta com modelos de linguagem grande [2024-arxiv] [artigo] [repo]
O reparo está quase na geração: reparo de programa multilíngue com LLMs [2023-AAAI] [artigo]
Corrigindo erros de compilação de Rust usando LLMs [2023-arxiv] [artigo]
Um estudo empírico sobre o ajuste fino de modelos de código em grandes linguagens para reparo automatizado de programas [2023-ASE] [artigo] [repo]
Uma cadeia de soluções baseadas em IA para resolver FQNs e corrigir erros de sintaxe em código parcial [2023-arxiv] [paper] [repo]
As instruções certas para o trabalho: reparar defeitos de revisão de código com modelo de linguagem grande [2023-arxiv] [artigo]
SYNSHINE: correção aprimorada de erros de sintaxe [2022-TSE] [paper] [repo]
CraftRTL: geração de dados sintéticos de alta qualidade para modelos de código Verilog com representações não textuais corretas por construção e reparo de código direcionado [2024-arXiv-NVIDIA] [artigo]
Uma abordagem de depuração unificada por meio de sinergia multiagente baseada em LLM [2024-arXiv] [artigo] [repo]
PyDex: Reparando bugs em tarefas introdutórias de Python usando LLMs [2024-OOPSLA] [artigo] [repo]
DebugBench: avaliando a capacidade de depuração de modelos de linguagem grande [2024-arxiv] [artigo] [repo]
ContrastRepair: Aprimorando o reparo automatizado de programas baseado em conversação por meio de pares de casos de teste contrastantes [2024-arxiv] [artigo]
ConDefects: um novo conjunto de dados para resolver a preocupação de vazamento de dados para localização de falhas e reparo de programa baseado em LLM [2024-arxiv] [artigo] [repo]
Reparador auxiliado por pares: capacitando modelos de linguagem grande para reparar tarefas avançadas de alunos [2024-arxiv] [artigo]
Métodos aprimorados de reparo de programas usando refatoração com modelos GPT [2024-SIGCSE TS] [artigo] [repo]
Uma revisão crítica do modelo de linguagem grande em engenharia de software: um exemplo de chatgpt e reparo automatizado de programa [2023-arxiv] [artigo] [repo]
Reparo automatizado de programas de grandes modelos de linguagem [2023-ICSE] [artigo] [repo]
FixEval: Avaliação baseada na execução de correções de programas para problemas de programação [2023-APR] [artigo] [repo]
Refinando o código gerado pelo ChatGPT: caracterizando e mitigando problemas de qualidade do código [2023-TOSEM] [artigo] [repo]
Reparando bugs em atribuições python usando modelos de linguagem grandes [2022-arixv] [artigo]
Frustrado com problemas de qualidade do código? LLMs podem ajudar! [2024-FSE/ESEC] [artigo] [repo]
SkipAnalyzer: um agente incorporado para análise de código com grandes modelos de linguagem [2023-arxiv] [artigo] [repo]
RAP-Gen: Geração de patch aumentada de recuperação com CodeT5 para reparo automático de programa [2023-FSE/ESEC] [artigo] [repo]
InferFix: reparo de programa ponta a ponta com LLMs sobre prompts aumentados de recuperação [2023-FSE/ESEC] [artigo] [repo]
LLMs podem corrigir problemas de segurança [2023-arxiv] [paper] [repo]
Melhorando o reparo automatizado de programas com adaptação de domínio [2023-TOSEM] [artigo] [repo]
Um estudo empírico de reparo de programa baseado em aprendizagem por transferência profunda para projetos Kotlin [2022-FSE/ESEC] [artigo]
TFix-Learning para corrigir erros de codificação com um transformador de texto para texto [2021-PMLR] [artigo] [repo]
Do código à correção: fechando a última milha da geração de código com depuração hierárquica [2024-arXiv] [paper] [repo]
Ensinando grandes modelos de linguagem para autodepuração [2024-ICLR] [artigo]
OpenCodeInterpreter: Integrando geração de código com execução e refinamento [2024-arxiv] [paper] [repo]
CICLO: Aprendendo a auto-refinar a geração de código [2024-OOPSLA] [artigo] [repo]
LDB: um depurador de modelo de linguagem grande por meio da verificação passo a passo da execução em tempo de execução [2024-arxiv] [artigo] [repo]
Aproveitando a depuração de impressão para melhorar a geração de código em modelos de linguagem grande [2024-arxiv] [artigo]
SelfEvolve: uma estrutura de evolução de código por meio de grandes modelos de linguagem [2023-arxiv] [artigo]
Auto-refinamento: refinamento iterativo com auto-feedback [2023-NeurIPS] [artigo] [repo]
AgentCoder: geração de código multiagente com teste iterativo e otimização [2023-arxiv] [artigo]
Autoedição: Editor de código com reconhecimento de falhas para geração de código [2023-ACL] [artigo] [repo]
O auto-reparo é uma solução mágica para geração de código? [2023-ICLR] [artigo] [repo]
O conhecimento do domínio é importante: melhorando os prompts com modelos de correção para reparar erros de tipo Python [2024-ICSE] [artigo] [repo]
PyTy: Reparando erros de tipo estático em Python [2024-ICSE] [paper] [repo]
Depuração de erros de tipo com tecnologia GPT-3: investigando o uso de modelos de linguagem grande para reparo de código [2023-SLE] [artigo] [repo]
Orientando ChatGPT para corrigir testes de UI da Web por meio de verificação de consistência de explicação [2023-arxiv] [artigo]
ACFIX: Orientando LLMs com práticas comuns de RBAC extraídas para reparo baseado no contexto de vulnerabilidades de controle de acesso em contratos inteligentes [2024-arxiv] [artigo]
Avaliando ChatGPT para correção de vulnerabilidade de contratos inteligentes [2023-COMPSAC] [artigo] [repo]
Correções de código de bug na segurança do hardware, solicitando modelos de linguagem grande [2024-TIFS] [artigo] [repo]
Sua pré-impressão: Corrigindo bugs de segurança de hardware com modelos de linguagem grande [2022-arXiv] [artigo]
HDLdebugger: Simplificando a depuração HDL com modelos de linguagem grande [2024-arxiv] [artigo]
RTLFixer: Corrigindo automaticamente erros de sintaxe RTL com modelos de linguagem grandes [2023-arxiv] [artigo]
LLM4SecHW: Aproveitando o modelo de linguagem grande específico do domínio para depuração de hardware [2023-AsianHOST] [artigo]
RAPGen: Uma abordagem para corrigir ineficiências de código em Zero-Shot [2023-arxiv] [artigo]
DeepDev-PERF: Uma abordagem baseada em aprendizagem profunda para melhorar o desempenho do software [2022-FSE/ESEC] [artigo] [repo]
Avaliando modelos de linguagem pré-treinados para reparar usos indevidos de API [2023-arxiv] [artigo] [repo]
Resolvendo Crash Bugs por meio de Grandes Modelos de Linguagem: Um Estudo Empírico [2023-arxiv] [artigo] [repo]
Reparo automatizado de casos de teste usando modelos de linguagem [2024-arxiv] [artigo]
Identificar e atualizar casos de teste quando o código de produção muda: uma abordagem baseada em transformador [2023-ASE]
Baldur: Geração e reparo de prova completa com modelos de linguagem grande [2023-FSE/ESEC] [artigo]
Perdido na tradução: um estudo de bugs introduzidos por grandes modelos de linguagem durante a tradução de código [2024-ICSE] [artigo] [repo]
SWE-bench: Os modelos de linguagem podem resolver problemas reais do GitHub? [2024-ICLR] [artigo] [repo]
Explorando o potencial do ChatGPT no refinamento automatizado de código: um estudo empírico [2024-ICSE] [artigo] [repo]
DrPlanner: Diagnóstico e reparo de planejadores de movimento usando modelos de linguagem grande [2024-arxiv] [artigo] [repo]
Explorando experiências com reparo automatizado de programas na prática [2024-ICSE] [artigo]
Revisitando a antinaturalidade para reparo automatizado de programas na era dos grandes modelos de linguagem [2024-arxiv] [papper] [repo]
Um estudo empírico de adoção de ChatGPT para correção de bugs entre desenvolvedores profissionais [2023-ITA] [artigo]
Aproveitando o modelo de linguagem grande para avaliação automática de correção de patches [2024-TSE] [artigo]
APPT impulsionando a previsão automatizada de correção de patches por meio de modelo de linguagem pré-treinado [2024-TSE] [artigo] [repo]
O melhor de dois mundos: combinando incorporações aprendidas com recursos de engenharia para previsão precisa de patches corretos [2023-TOSME] [paper] [repo]
Invalidador: avaliação automatizada de correção de patches por meio de raciocínio semântico e sintático [2023-TSE] [artigo] [repo]
PatchZero: Avaliação automática de correção de patch Zero-Shot [2023-arxiv] [artigo]
Esta mudança é a resposta para esse problema? Correlacionando descrições de bugs e alterações de código para avaliar a correção do patch [2021-ASE] [artigo] [repo]
Avaliando o aprendizado de representação de mudanças de código para prever a correção do patch no reparo do programa [2020-ASE] [artigo] [repo]
Explorando o ajuste fino com eficiência de parâmetros de modelos de linguagem grande no reparo automatizado de programas [2024-ASE] [artigo]
MuBench: Benchmarking de reparo automatizado de programa: um estudo extensivo sobre bugs do mundo real e artificiais [2024-ISSTA] [artigo]
CodeEditorBench: avaliando a capacidade de edição de código de modelos de linguagem grande [2024-arxiv] [artigo] [repo]
GitBug-Java: um benchmark reproduzível de bugs Java recentes [2024-arxiv] [artigo] [repo]
SWE-bench: Os modelos de linguagem podem resolver problemas reais do GitHub? [2024-ICLR] [artigo] [repo]
DebugBench: avaliando a capacidade de depuração de modelos de linguagem grande [2024-arxiv] [artigo] [repo]
ConDefects: um novo conjunto de dados para resolver a preocupação de vazamento de dados para localização de falhas e reparo de programa baseado em LLM [2024-arxiv] [artigo] [repo]
Uma revisão crítica do modelo de linguagem grande em engenharia de software: um exemplo de chatgpt e reparo automatizado de programa [2023-arxiv] [artigo] [repo]
CodeScope: um benchmark multidimensional multitarefa multilíngue baseado em execução para avaliar LLMs na compreensão e geração de código [2023-arxiv] [artigo] [repo]
FixEval: Avaliação baseada na execução de correções de programas para problemas de programação [2023-APR] [artigo] [repo]
Uma pesquisa sobre reparo automatizado de programas baseado em aprendizagem [2023-TOSEM] [artigo] [repo]
Reparo automático de software: um artigo bibliográfico [2018-CSUR]]
Reparo automático de software: artigo de pesquisa [2017-TSE]]