การอ้างอิง
สถานการณ์การซ่อมแซม
ข้อผิดพลาดทางความหมาย
ช่องโหว่ด้านความปลอดภัย
ข้อผิดพลาดทางไวยากรณ์
ปัญหาการเขียนโปรแกรม
คำเตือนแบบคงที่
การแก้ไขข้อบกพร่องด้วยตนเอง
ประเภทข้อผิดพลาด
การทดสอบ UI ของเว็บ
สัญญาอัจฉริยะ
ข้อผิดพลาดของฮาร์ดแวร์
ข้อผิดพลาดด้านประสิทธิภาพ
การใช้ API ในทางที่ผิด
ความผิดพลาดข้อผิดพลาด
กรณีทดสอบ
หลักฐานอย่างเป็นทางการ
ข้อผิดพลาดในการแปล
ปัญหา GitHub
รีวิวโค้ด
วางแผนการเคลื่อนไหว
- การศึกษาของมนุษย์
- การประเมินความถูกต้องของแพตช์
เกณฑ์มาตรฐาน
- แบบสำรวจ APR ที่เกี่ยวข้อง
@article{zhang2024survey, title={การทบทวนวรรณกรรมอย่างเป็นระบบเกี่ยวกับแบบจำลองภาษาขนาดใหญ่สำหรับการซ่อมแซมโปรแกรมอัตโนมัติ} ผู้แต่ง={Zhang, Quanjun และ Fang, Chunrong และ Xie, Yang และ Ma, Yuxiang และ Sun, Weisong และ Yang, Yun และ Chen , Zhenyu}, วารสาร={arXiv พิมพ์ล่วงหน้า arXiv:2405.01466} ปี={2024}}
เพิ่มการศึกษาตามตัวแทน SE สำหรับปัญหา GitHub
เพิ่มเอกสาร ISSTA 2024
เผยแพร่เวอร์ชันใหม่ของเอกสารนี้บน arXiv
แกนหลัก: การแก้ไขปัญหาคุณภาพของโค้ดโดยใช้ LLM [2024-FSE]
การแก้ไขทันที: เทคโนโลยีการซ่อมแซมช่องโหว่โดยอัตโนมัติตามวิศวกรรมพร้อมท์ [2024-ICNC]
การประเมินแบบจำลองภาษาขนาดใหญ่สำหรับการซ่อมแซมช่องโหว่ในโลกแห่งความเป็นจริงในโค้ด C/C++[2024-IWSPA]
การตรวจสอบความสามารถของโมเดลภาษาขนาดใหญ่สำหรับการซ่อมแซมโค้ดอัตโนมัติใน Python[2024-Cluster Computing]
LPR: การลดโปรแกรมช่วยแบบจำลองภาษาขนาดใหญ่[2024-ISSTA]
กรณีศึกษา LLM สำหรับการซ่อมแซมช่องโหว่อัตโนมัติ: การประเมินผลกระทบของการใช้เหตุผลและคำติชมการตรวจสอบความถูกต้องของแพตช์ (7 กันยายน 2024) AIware 2024
เมื่อโมเดลภาษาขนาดใหญ่เผชิญหน้ากับการซ่อมแซมโปรแกรมอัตโนมัติระดับพื้นที่เก็บข้อมูล: ทำได้ดีแค่ไหน? [2024-ไอซีเอส]
การสำรวจการปรับแต่งพารามิเตอร์อย่างมีประสิทธิภาพของโมเดลภาษาขนาดใหญ่ในการซ่อมแซมโปรแกรมอัตโนมัติ[2024-ASE]
การสำรวจศักยภาพของการซ่อมแซมโปรแกรมที่ใช้ชุดทดสอบการสนทนาบน SWE-bench [2024-arXiv]
การสำรวจและการยกระดับความทนทานของการซ่อมแซมโปรแกรมอัตโนมัติที่ขับเคลื่อนด้วย LLM ด้วยการทดสอบการเปลี่ยนแปลง[2024-arXiv] [กระดาษ]
Divide-and-Conquer: การแก้ไขโค้ดอัตโนมัติผ่าน Localization-and-Revision [2024-TOSEM]
จากโค้ดสู่ความถูกต้อง: ปิดไมล์สุดท้ายของการสร้างโค้ดด้วยการดีบักแบบลำดับชั้น [2024-arXiv] [กระดาษ] [repo]
การซ่อมแซมโปรแกรมอัตโนมัติสำหรับการมอบหมายการเขียนโปรแกรมเบื้องต้น [2024-TLT] [กระดาษ]
การซ่อมแซมโค้ด AI อัตโนมัติด้วยโมเดลภาษาขนาดใหญ่และการตรวจสอบยืนยันอย่างเป็นทางการ [2024-arXiv] [กระดาษ]
CraftRTL: การสร้างข้อมูลสังเคราะห์คุณภาพสูงสำหรับโมเดลโค้ด Verilog ที่มีการนำเสนอแบบไม่ใช่ข้อความและการซ่อมแซมโค้ดแบบกำหนดเป้าหมาย [2024-arXiv-NVIDIA] [กระดาษ]
การเปรียบเทียบการซ่อมแซมโปรแกรมอัตโนมัติ: การศึกษาอย่างกว้างขวางเกี่ยวกับแมลงทั้งในชีวิตจริงและแมลงประดิษฐ์ [2024-ISSTA] [กระดาษ]
การซ่อมแซมโปรแกรมอัตโนมัติผ่านการสนทนา: แก้ไขข้อบกพร่อง 162 รายการจากทั้งหมด 337 รายการ ในราคา 0.42 ดอลลาร์ต่อรายการโดยใช้ chatgpt[2024-ISSTA] [กระดาษ]
การใช้ประโยชน์จากโมเดลภาษาขนาดใหญ่สำหรับการประเมินความถูกต้องของแพตช์อัตโนมัติ[2024-TSE] [กระดาษ]
การซ่อมแซมโปรแกรมอัตโนมัติสำหรับข้อบกพร่องด้านความแปรปรวนในระบบสายผลิตภัณฑ์ซอฟต์แวร์[2024-JSS] [กระดาษ]
PyBugHive: ฐานข้อมูลที่ครอบคลุมของ Python Bugs ที่ได้รับการตรวจสอบด้วยตนเองและทำซ้ำได้ [การเข้าถึง 2024-IEEE] [กระดาษ]
จะเข้าใจพื้นที่เก็บข้อมูลซอฟต์แวร์ทั้งหมดได้อย่างไร [2024-arXiv] [กระดาษ]
การซ่อมแซมโปรแกรมอัตโนมัติสำหรับข้อบกพร่องด้านความแปรปรวนในระบบสายผลิตภัณฑ์ซอฟต์แวร์[2024-JSS] [กระดาษ]
แนวทางการแก้ไขข้อบกพร่องแบบรวมผ่านการทำงานร่วมกันหลายตัวแทนที่ใช้ LLM [2024-arxiv] [กระดาษ] [repo]
เราจะไปได้ไกลแค่ไหนกับการซ่อมแซมโปรแกรมระดับฟังก์ชันที่ใช้งานได้จริง [2024-arxiv] [กระดาษ] [repo]
การซ่อมแซมโปรแกรมอัตโนมัติผ่านการสนทนา: แก้ไขข้อบกพร่อง 162 รายการจากทั้งหมด 337 รายการ ในราคา 0.42 ดอลลาร์ต่อรายการโดยใช้ chatgpt[2024-ISSTA] [กระดาษ]
เวอร์ชันเก่า: สนทนาต่อไป: แก้ไขข้อบกพร่อง 162 รายการจาก 337 รายการในราคา 0.42 ดอลลาร์ต่อรายการโดยใช้ ChatGPT [2023-arxiv] [กระดาษ]
แนวทางใหม่สำหรับการซ่อมแซมโปรแกรมอัตโนมัติโดยใช้การแปลแบบไปกลับด้วยโมเดลภาษาขนาดใหญ่ [2024-arxiv] [กระดาษ] [repo]
ไม่อยู่ในบริบท: บริบทในท้องถิ่นมีความสำคัญเพียงใดในการซ่อมแซมโปรแกรมประสาท [2024-ICSE] [กระดาษ] [repo]
การปรับแต่งแบบละเอียดหลายวัตถุประสงค์เพื่อการซ่อมแซมโปรแกรมขั้นสูงด้วย LLM [2024-arxiv] [กระดาษ]
การจัดตำแหน่ง LLM สำหรับการซ่อมแซมโปรแกรมที่ปราศจาก FL [2024-arxiv] [กระดาษ]
ContrastRepair: การปรับปรุงการซ่อมแซมโปรแกรมอัตโนมัติตามการสนทนาผ่านคู่กรณีทดสอบคอนทราสต์ [2024-arxiv] [กระดาษ]
การสำรวจศักยภาพของโมเดลภาษาที่ได้รับการฝึกอบรมล่วงหน้าของโค้ดสำหรับการซ่อมแซมโปรแกรมอัตโนมัติ [อิเล็กทรอนิกส์ปี 2024] [กระดาษ]
CigaR: การซ่อมแซมโปรแกรมที่คุ้มค่าด้วย LLM [2024-arxiv] [กระดาษ] [repo]
ปัญหาการเลือกข้อเท็จจริงในการซ่อมแซมโปรแกรมที่ใช้ LLM [2024-arxiv] [กระดาษ] [repo]
แนวทางใหม่สำหรับการซ่อมแซมโปรแกรมอัตโนมัติโดยใช้การแปลแบบไปกลับด้วยโมเดลภาษาขนาดใหญ่ [2024-arxiv] [กระดาษ] [repo]
RepairAgent: ตัวแทนที่ใช้ LLM แบบอัตโนมัติสำหรับการซ่อมแซมโปรแกรม [2024-arxiv] [กระดาษ]
เจาะลึกโมเดลภาษาขนาดใหญ่สำหรับการแปลและซ่อมแซมจุดบกพร่องอัตโนมัติ [2024-FSE/ESEC] [กระดาษ]
การซ่อมแซมโปรแกรมอัตโนมัติในยุคของโมเดลภาษาที่ได้รับการฝึกอบรมล่วงหน้าขนาดใหญ่ [2023-ICSE] [กระดาษ] [repo]
การซ่อมแซมใกล้จะเกิดขึ้นแล้ว: การซ่อมแซมโปรแกรมหลายภาษาด้วย LLM [2023-AAAI] [กระดาษ]
การเลือกพรอมต์ตามการดึงข้อมูลสำหรับการเรียนรู้ไม่กี่ช็อตที่เกี่ยวข้องกับโค้ด [2023-ICSE] [กระดาษ] [repo]
อะไรทำให้การสาธิตในบริบทที่ดีสำหรับงานโค้ดอัจฉริยะด้วย llms [2023-ASE] [กระดาษ] [repo]
การเขียนโปรแกรมอัตโนมัติเต็มรูปแบบด้วยโมเดลภาษาขนาดใหญ่ [2023-GECCO] [กระดาษ] [repo]
การซ่อมแซมโปรแกรมอัตโนมัติโดยใช้แบบจำลองทั่วไปสำหรับการเติมโค้ด [2023-AIED] [กระดาษ] [repo]
STEAM: การจำลองพฤติกรรมแบบอินเทอร์แอคทีฟของ ProgrAMmers สำหรับการแก้ไขข้อบกพร่องอัตโนมัติ [2023-arxiv] [กระดาษ]
การซ่อมแซมโปรแกรมอัตโนมัติแบบสนทนา [2023-arxiv] [กระดาษ]
ChatGPT คือผู้ช่วยเขียนโปรแกรมขั้นสุดยอด ไกลแค่ไหน? [2023-arxiv] [กระดาษ] [repo]
การใช้โมเดลภาษาขนาดใหญ่สำหรับการแปลจุดบกพร่องและการแก้ไข [2023-iCAST] [กระดาษ]
การศึกษาเชิงประจักษ์เกี่ยวกับการปรับแต่งโมเดลภาษาขนาดใหญ่ของโค้ดสำหรับการซ่อมแซมโปรแกรมอัตโนมัติ [2023-ASE] [กระดาษ] [repo]
การประเมินประสิทธิผลของ ChatGPT ของ OpenAI สำหรับการแก้ไขข้อบกพร่องของโปรแกรม Python อัตโนมัติโดยใช้ QuixBugs [2023-iSEMANTIC] [กระดาษ]
การดีบักอัตโนมัติที่อธิบายได้ผ่านการดีบักทางวิทยาศาสตร์ที่ขับเคลื่อนด้วยแบบจำลองภาษาขนาดใหญ่ [2023-arxiv] [กระดาษ]
คำแนะนำที่เหมาะสมสำหรับงาน: ซ่อมแซมข้อบกพร่องในการตรวจสอบโค้ดด้วยโมเดลภาษาขนาดใหญ่ [2023-arxiv] [กระดาษ]
ผลกระทบของโมเดลภาษาโค้ดต่อการซ่อมแซมโปรแกรมอัตโนมัติ [2023-ICSE] [กระดาษ] [repo]
สู่การสร้างการแก้ไขโค้ดที่ถูกต้องตามหน้าที่จากคำอธิบายปัญหาภาษาธรรมชาติ [2023-arxiv] [กระดาษ]
สมมติฐานการทำศัลยกรรมพลาสติกในยุคของแบบจำลองภาษาขนาดใหญ่ [2023-ASE] [กระดาษ] [repo]
การสำรวจขีดจำกัดของ ChatGPT ในแอปพลิเคชันความปลอดภัยของซอฟต์แวร์ [2023-arxiv] [กระดาษ]
CodeScope: เกณฑ์มาตรฐานหลายมิติแบบมัลติทาสก์หลายภาษาตามการดำเนินการสำหรับการประเมิน LLM เกี่ยวกับความเข้าใจและการสร้างโค้ด [2023-arxiv] [กระดาษ] [repo]
การปรับปรุงการซ่อมแซมโปรแกรมอัตโนมัติผ่านการปรับแต่งอย่างละเอียดและวิศวกรรมที่รวดเร็ว [2023-arxiv] [กระดาษ] [repo]
โมเดลภาษาการฝึกอบรมสำหรับคำติชมการเขียนโปรแกรมโดยใช้เครื่องมือซ่อมแซมอัตโนมัติ [2023-AIED] [กระดาษ] [repo]
RepairLLaMA: การแสดงที่มีประสิทธิภาพและอะแดปเตอร์ที่ได้รับการปรับแต่งอย่างละเอียดสำหรับการซ่อมแซมโปรแกรม [2023-arxiv] [กระดาษ] [repo]
การแก้ไขโค้ดอัตโนมัติด้วย Search-Generate-Modify [2023-arxiv] [กระดาษ] [repo]
RAP-Gen: การสร้างแพทช์แบบดึงข้อมูลเสริมด้วย CodeT5 สำหรับการซ่อมแซมโปรแกรมอัตโนมัติ [2023-FSE/ESEC] [กระดาษ] [repo]
การซ่อมแซมโปรแกรมประสาทด้วยการวิเคราะห์การพึ่งพาโปรแกรมและกลไกการกรองที่มีประสิทธิภาพ [2023-arxiv] [กระดาษ]
Coffee: เพิ่ม LLM โค้ดของคุณโดยแก้ไขข้อบกพร่องพร้อมคำติชม [2023-arxiv] [กระดาษ] [repo]
การศึกษาเกี่ยวกับการออกแบบที่รวดเร็ว ข้อดี และข้อจำกัดของ ChatGPT สำหรับการซ่อมแซมโปรแกรมการเรียนรู้เชิงลึก [2023-arxiv] [กระดาษ]
Copiloting the Copilots: การหลอมรวมโมเดลภาษาขนาดใหญ่เข้ากับเอ็นจิ้นการเสร็จสิ้นสำหรับการซ่อมแซมโปรแกรมอัตโนมัติ [2023-FSE/ESEC] [กระดาษ] [repo]
Gamma: การเยี่ยมชมการซ่อมแซมโปรแกรมอัตโนมัติตามเทมเพลตอีกครั้งผ่านการทำนายมาสก์ [2023-ASE] [กระดาษ] [repo]
การศึกษาอย่างกว้างขวางเกี่ยวกับสถาปัตยกรรมแบบจำลองและการเป็นตัวแทนของโปรแกรมในโดเมนของการซ่อมแซมโปรแกรมอัตโนมัติตามการเรียนรู้ [2023-APR] [กระดาษ] [repo]
การปรับปรุงการซ่อมแซมโปรแกรมอัตโนมัติด้วยการปรับโดเมน [2023-TOSEM] [กระดาษ] [repo]
การเพิ่มประสิทธิภาพโมเดลภาษาโค้ดสำหรับการซ่อมแซมโปรแกรมโดย Curricular Fine-tuning Framework [2023-ICSME] [กระดาษ]
การใช้ ChatGPT ที่เป็นไปได้ในการแก้ไขจุดบกพร่องและแก้ไขข้อบกพร่อง [2023-] [กระดาษ]
วงกลม: การซ่อมแซมอย่างต่อเนื่องในภาษาการเขียนโปรแกรม [2022-ISSTA] [กระดาษ] [repo]
สู่การซ่อมแซมโปรแกรม JavaScript ด้วย Generative Pre-trained Transformer (GPT-2) [2022-APR] [กระดาษ] [repo]
แก้ไขข้อบกพร่องด้วย Transformer ผ่านไวยากรณ์การแก้ไขเชิงประสาทสัญลักษณ์ [2022-ICLR] [กระดาษ]
การสร้างแพตช์ด้วยโมเดลภาษา: ความเป็นไปได้และพฤติกรรมการปรับขนาด [2022-ICLR] [กระดาษ]
codex ของ OpenAI สามารถแก้ไขข้อบกพร่องได้หรือไม่: การประเมิน QuixBugs [2022-APR] [กระดาษ]
การวิเคราะห์ประสิทธิภาพการแก้ไขข้อบกพร่องอัตโนมัติของ ChatGPT [2022-APR] [กระดาษ] [repo]
โปรดฝึกอบรมน้อยลง โปรดซ่อมแซมมากขึ้น: กลับมาเยี่ยมชมการซ่อมแซมโปรแกรมอัตโนมัติอีกครั้งผ่านการเรียนรู้แบบ Zero-shot [2022-FSE/ESEC] [paer] [repo]
การซ่อมแซมโปรแกรมเฟรมเป็นการเสร็จสิ้นโค้ด [2022-APR] [กระดาษ] [repo]
เรียนแนวทางการเรียนรู้เชิงลึกแบบใหม่สำหรับการซ่อมแซมโปรแกรมอัตโนมัติ [2022-ICSE] [กระดาษ] [repo]
การสร้างการแก้ไขข้อบกพร่องโดยใช้หม้อแปลงที่ผ่านการฝึกอบรม [2021-PLDI] [กระดาษ]
การใช้ CodeBERT สำหรับการซ่อมแซมโปรแกรมอัตโนมัติของ Java Simple Bugs [2021-MSR] [กระดาษ] [repo]
CURE Code-Aware Neural Machine Translation สำหรับการซ่อมแซมโปรแกรมอัตโนมัติ [2021-ICSE] [กระดาษ] [repo]
จะเข้าใจพื้นที่เก็บข้อมูลซอฟต์แวร์ทั้งหมดได้อย่างไร [2024-arXiv] [กระดาษ]
การซ่อมแซมโค้ด AI อัตโนมัติด้วยโมเดลภาษาขนาดใหญ่และการตรวจสอบยืนยันอย่างเป็นทางการ [2024-arXiv] [กระดาษ]
NAVRepair: การซ่อมแซมช่องโหว่โค้ด C/C++ Aware ชนิดโหนด [2024-arxiv] [กระดาษ]
การซ่อมแซมช่องโหว่ของโค้ดอัตโนมัติที่ได้รับการปรับปรุงโดยใช้โมเดลภาษาขนาดใหญ่ [2024-arxiv] [กระดาษ]
อยู่นอกสายตา อยู่นอกใจ: การซ่อมแซมช่องโหว่อัตโนมัติที่ดีขึ้นโดยการขยายช่วงอินพุตและแหล่งที่มา [2024-ICSE] [กระดาษ] [repo]
การศึกษาการซ่อมแซมช่องโหว่ในโปรแกรม JavaScript ที่มีโมเดลภาษาขนาดใหญ่ [2024-arxiv] [กระดาษ] [repo]
การกระตุ้นความคิดแบบลูกโซ่ของโมเดลภาษาขนาดใหญ่สำหรับการค้นพบและแก้ไขช่องโหว่ของซอฟต์แวร์ [2024-arxiv] [กระดาษ]
การซ่อมแซมช่องโหว่ของซอฟต์แวร์อัตโนมัติตามโมเดลที่ได้รับการฝึกอบรมล่วงหน้า: เราอยู่ไกลแค่ไหน? [2023-TDSC] [กระดาษ] [repo]
การตรวจสอบการซ่อมแซมช่องโหว่แบบ Zero-shot ด้วยโมเดลภาษาขนาดใหญ่ [2023-S&P] [กระดาษ] [repo]
การศึกษาเชิงประจักษ์เกี่ยวกับการปรับแต่งโมเดลภาษาขนาดใหญ่ของโค้ดสำหรับการซ่อมแซมโปรแกรมอัตโนมัติ [2023-ASE] [กระดาษ] [repo]
ยุคใหม่ของการรักษาความปลอดภัยซอฟต์แวร์: สู่ซอฟต์แวร์การรักษาตัวเองผ่านแบบจำลองภาษาขนาดใหญ่และการตรวจสอบยืนยันอย่างเป็นทางการ [2023-arxiv] [กระดาษ]
การสำรวจขีดจำกัดของ ChatGPT ในแอปพลิเคชันความปลอดภัยของซอฟต์แวร์ [2023-arxiv] [กระดาษ]
ZeroLeak: การใช้ LLM สำหรับการแก้ไขช่องสัญญาณด้านข้างที่ปรับขนาดได้และคุ้มค่า [2023-arxiv] [กระดาษ]
ChatGPT แก้ไขปัญหาการจัดการช่องโหว่อย่างไร [2023-arxiv] [กระดาษ] [repo]
โครงข่ายประสาทเทียมมีประสิทธิภาพเพียงใดในการแก้ไขช่องโหว่ด้านความปลอดภัย [2023-ISSTA] [กระดาษ] [repo]
การซ่อมแซมช่องโหว่อัตโนมัติที่ได้รับแรงบันดาลใจจาก Vision Transformer [2023-TOSEM] [กระดาษ] [repo]
โมเดลภาษาขนาดใหญ่สามารถค้นหาและแก้ไขซอฟต์แวร์ที่มีช่องโหว่ได้หรือไม่ [2023-arxiv] [กระดาษ]
VulRepair: การซ่อมแซมช่องโหว่ของซอฟต์แวร์อัตโนมัติที่ใช้ T5 [2022-FSE/ESEC] [กระดาษ] [repo]
แนวทางใหม่สำหรับการซ่อมแซมโปรแกรมอัตโนมัติโดยใช้การแปลแบบไปกลับด้วยโมเดลภาษาขนาดใหญ่ [2024-arxiv] [กระดาษ] [repo]
การซ่อมแซมใกล้จะเกิดขึ้นแล้ว: การซ่อมแซมโปรแกรมหลายภาษาด้วย LLM [2023-AAAI] [กระดาษ]
แก้ไขข้อผิดพลาดในการคอมไพล์สนิมโดยใช้ LLM [2023-arxiv] [กระดาษ]
การศึกษาเชิงประจักษ์เกี่ยวกับการปรับแต่งโมเดลภาษาขนาดใหญ่ของโค้ดสำหรับการซ่อมแซมโปรแกรมอัตโนมัติ [2023-ASE] [กระดาษ] [repo]
ห่วงโซ่โซลูชันที่ใช้ AI สำหรับการแก้ไข FQN และแก้ไขข้อผิดพลาดทางไวยากรณ์ในโค้ดบางส่วน [2023-arxiv] [กระดาษ] [repo]
คำแนะนำที่เหมาะสมสำหรับงาน: ซ่อมแซมข้อบกพร่องในการตรวจสอบโค้ดด้วยโมเดลภาษาขนาดใหญ่ [2023-arxiv] [กระดาษ]
SYNSHINE: ปรับปรุงการแก้ไขข้อผิดพลาดทางไวยากรณ์ [2022-TSE] [กระดาษ] [repo]
CraftRTL: การสร้างข้อมูลสังเคราะห์คุณภาพสูงสำหรับโมเดลโค้ด Verilog ที่มีการนำเสนอแบบไม่ใช่ข้อความและการซ่อมแซมโค้ดแบบกำหนดเป้าหมาย [2024-arXiv-NVIDIA] [กระดาษ]
แนวทางการแก้ไขข้อบกพร่องแบบรวมผ่านการทำงานร่วมกันหลายตัวแทนที่ใช้ LLM [2024-arXiv] [กระดาษ] [repo]
PyDex: การซ่อมแซมข้อบกพร่องในการกำหนด Python เบื้องต้นโดยใช้ LLMs [2024-OOPSLA] [กระดาษ] [repo]
DebugBench: การประเมินความสามารถในการดีบักของโมเดลภาษาขนาดใหญ่ [2024-arxiv] [กระดาษ] [repo]
ContrastRepair: การปรับปรุงการซ่อมแซมโปรแกรมอัตโนมัติตามการสนทนาผ่านคู่กรณีทดสอบคอนทราสต์ [2024-arxiv] [กระดาษ]
ConDefects: ชุดข้อมูลใหม่เพื่อจัดการกับข้อกังวลเกี่ยวกับการรั่วไหลของข้อมูลสำหรับการแปลข้อผิดพลาดตาม LLM และการซ่อมแซมโปรแกรม [2024-arxiv] [กระดาษ] [repo]
ช่างซ่อมที่มีเพื่อนช่วยเพื่อน: เสริมศักยภาพโมเดลภาษาขนาดใหญ่เพื่อซ่อมแซมการมอบหมายงานของนักเรียนขั้นสูง [2024-arxiv] [กระดาษ]
ปรับปรุงวิธีการซ่อมแซมโปรแกรมโดยใช้การปรับโครงสร้างใหม่ด้วยโมเดล GPT [2024-SIGCSE TS] [กระดาษ] [repo]
การทบทวนอย่างมีวิจารณญาณของโมเดลภาษาขนาดใหญ่เกี่ยวกับวิศวกรรมซอฟต์แวร์: ตัวอย่างจาก chatgpt และการซ่อมแซมโปรแกรมอัตโนมัติ [2023-arxiv] [กระดาษ] [repo]
การซ่อมแซมโปรแกรมอัตโนมัติจากโมเดลภาษาขนาดใหญ่ [2023-ICSE] [กระดาษ] [repo]
FixEval: การประเมินตามการดำเนินการของการแก้ไขโปรแกรมสำหรับปัญหาการเขียนโปรแกรม [2023-APR] [กระดาษ] [repo]
การปรับแต่งโค้ดที่สร้างโดย ChatGPT: การกำหนดคุณลักษณะและการบรรเทาปัญหาคุณภาพโค้ด [2023-TOSEM] [กระดาษ] [repo]
การซ่อมแซมข้อบกพร่องในการมอบหมายหลามโดยใช้โมเดลภาษาขนาดใหญ่ [2022-arixv] [กระดาษ]
หงุดหงิดกับปัญหาคุณภาพของโค้ดใช่ไหม LLM สามารถช่วยได้! [2024-FSE/ESEC] [กระดาษ] [repo]
SkipAnalyzer: เอเจนต์ที่เป็นตัวเป็นตนสำหรับการวิเคราะห์โค้ดด้วยโมเดลภาษาขนาดใหญ่ [2023-arxiv] [กระดาษ] [repo]
RAP-Gen: การสร้างแพทช์แบบดึงข้อมูลเสริมด้วย CodeT5 สำหรับการซ่อมแซมโปรแกรมอัตโนมัติ [2023-FSE/ESEC] [กระดาษ] [repo]
InferFix: การซ่อมแซมโปรแกรมแบบ End-to-End ด้วย LLM ผ่านการเรียกข้อมูล-Augmented Prompts [2023-FSE/ESEC] [กระดาษ] [repo]
LLMs สามารถแก้ไขปัญหาด้านความปลอดภัย [2023-arxiv] [กระดาษ] [repo]
การปรับปรุงการซ่อมแซมโปรแกรมอัตโนมัติด้วยการปรับโดเมน [2023-TOSEM] [กระดาษ] [repo]
การศึกษาเชิงประจักษ์ของการซ่อมแซมโปรแกรมที่เน้นการถ่ายโอนการเรียนรู้เชิงลึกสำหรับโครงการ Kotlin [2022-FSE/ESEC] [บทความ]
TFix-การเรียนรู้เพื่อแก้ไขข้อผิดพลาดในการเข้ารหัสด้วยตัวแปลงข้อความเป็นข้อความ [2021-PMLR] [กระดาษ] [repo]
จากโค้ดสู่ความถูกต้อง: ปิดไมล์สุดท้ายของการสร้างโค้ดด้วยการดีบักแบบลำดับชั้น [2024-arXiv] [กระดาษ] [repo]
การสอนโมเดลภาษาขนาดใหญ่เพื่อแก้ไขข้อบกพร่องด้วยตนเอง [2024-ICLR] [กระดาษ]
OpenCodeInterpreter: การรวมการสร้างโค้ดเข้ากับการดำเนินการและการปรับแต่ง [2024-arxiv] [กระดาษ] [repo]
CYCLE: การเรียนรู้ที่จะปรับแต่งการสร้างโค้ดด้วยตนเอง [2024-OOPSLA] [กระดาษ] [repo]
LDB: ดีบักเกอร์โมเดลภาษาขนาดใหญ่ผ่านการตรวจสอบการดำเนินการรันไทม์ทีละขั้นตอน [2024-arxiv] [กระดาษ] [repo]
การใช้ประโยชน์จากการแก้ไขจุดบกพร่องการพิมพ์เพื่อปรับปรุงการสร้างโค้ดในโมเดลภาษาขนาดใหญ่ [2024-arxiv] [กระดาษ]
SelfEvolve: กรอบวิวัฒนาการโค้ดผ่านโมเดลภาษาขนาดใหญ่ [2023-arxiv] [กระดาษ]
การปรับแต่งตนเอง: การปรับแต่งซ้ำพร้อมการตอบรับด้วยตนเอง [2023-NeurIPS] [กระดาษ] [repo]
AgentCoder: การสร้างโค้ดเอเจนต์หลายรายการพร้อมการทดสอบซ้ำและการเพิ่มประสิทธิภาพ [2023-arxiv] [กระดาษ]
แก้ไขด้วยตนเอง: ตัวแก้ไขโค้ด Fault-Aware สำหรับการสร้างโค้ด [2023-ACL] [กระดาษ] [repo]
การซ่อมแซมตัวเองถือเป็นเรื่องสำคัญสำหรับการสร้างโค้ดหรือไม่? [2023-ICLR] [กระดาษ] [repo]
ความรู้เรื่องโดเมน: การปรับปรุงพรอมต์ด้วยเทมเพลตการแก้ไขสำหรับการซ่อมแซมข้อผิดพลาดประเภท Python [2024-ICSE] [กระดาษ] [repo]
PyTy: การซ่อมแซมข้อผิดพลาดประเภทคงที่ใน Python [2024-ICSE] [กระดาษ] [repo]
การดีบักข้อผิดพลาดประเภทขับเคลื่อน GPT-3: การตรวจสอบการใช้โมเดลภาษาขนาดใหญ่สำหรับการซ่อมแซมโค้ด [2023-SLE] [กระดาษ] [repo]
แนวทาง ChatGPT เพื่อแก้ไขการทดสอบ Web UI ผ่านการตรวจสอบความสอดคล้องของคำอธิบาย [2023-arxiv] [กระดาษ]
ACFIX: แนวทาง LLM ด้วยแนวทางปฏิบัติ RBAC ทั่วไปที่ขุดขึ้นมาสำหรับการซ่อมแซมช่องโหว่ในการควบคุมการเข้าถึงตามบริบทในสัญญาอัจฉริยะ [2024-arxiv] [กระดาษ]
การประเมิน ChatGPT สำหรับการแก้ไขช่องโหว่ของ Smart Contracts [2023-COMPSAC] [กระดาษ] [repo]
ในการแก้ไขรหัสข้อผิดพลาดด้านความปลอดภัยของฮาร์ดแวร์โดยการแจ้งโมเดลภาษาขนาดใหญ่ [2024-TIFS] [กระดาษ] [repo]
พิมพ์ล่วงหน้า: แก้ไขข้อบกพร่องด้านความปลอดภัยของฮาร์ดแวร์ด้วยโมเดลภาษาขนาดใหญ่ [2022-arXiv] [กระดาษ]
HDLdebugger: ปรับปรุงการแก้ไขข้อบกพร่อง HDL ด้วยโมเดลภาษาขนาดใหญ่ [2024-arxiv] [กระดาษ]
RTLFixer: แก้ไขข้อผิดพลาดทางไวยากรณ์ RTL โดยอัตโนมัติด้วยโมเดลภาษาขนาดใหญ่ [2023-arxiv] [กระดาษ]
LLM4SecHW: การใช้ประโยชน์จากโมเดลภาษาขนาดใหญ่เฉพาะโดเมนสำหรับการดีบักฮาร์ดแวร์ [2023-AsianHOST] [กระดาษ]
RAPGen: แนวทางในการแก้ไขความไร้ประสิทธิภาพของโค้ดใน Zero-Shot [2023-arxiv] [กระดาษ]
DeepDev-PERF: แนวทางการเรียนรู้เชิงลึกสำหรับการปรับปรุงประสิทธิภาพของซอฟต์แวร์ [2022-FSE/ESEC] [กระดาษ] [repo]
การประเมินโมเดลภาษาที่ได้รับการฝึกอบรมล่วงหน้าสำหรับการซ่อมแซมการใช้ API ในทางที่ผิด [2023-arxiv] [กระดาษ] [repo]
การแก้ไขข้อผิดพลาดที่ขัดข้องด้วยโมเดลภาษาขนาดใหญ่: การศึกษาเชิงประจักษ์ [2023-arxiv] [กระดาษ] [repo]
การซ่อมแซมกรณีทดสอบอัตโนมัติโดยใช้แบบจำลองภาษา [2024-arxiv] [กระดาษ]
ระบุและอัปเดตกรณีทดสอบเมื่อมีการเปลี่ยนแปลงรหัสการผลิต: แนวทางที่ใช้หม้อแปลงไฟฟ้า [2023-ASE]
Baldur: การสร้างและการซ่อมแซมที่ครอบคลุมด้วยโมเดลภาษาขนาดใหญ่ [2023-FSE/ESEC] [กระดาษ]
แพ้ในการแปล: การศึกษาข้อบกพร่องที่แนะนำโดยโมเดลภาษาขนาดใหญ่ขณะแปลโค้ด [2024-ICSE] [กระดาษ] [repo]
SWE-bench: โมเดลภาษาสามารถแก้ไขปัญหา GitHub ในโลกแห่งความเป็นจริงได้หรือไม่ [2024-ICLR] [กระดาษ] [repo]
การสำรวจศักยภาพของ ChatGPT ในการปรับแต่งโค้ดอัตโนมัติ: การศึกษาเชิงประจักษ์ [2024-ICSE] [กระดาษ] [repo]
DrPlanner: การวินิจฉัยและการซ่อมแซมนักวางแผนการเคลื่อนไหวโดยใช้แบบจำลองภาษาขนาดใหญ่ [2024-arxiv] [กระดาษ] [repo]
การสำรวจประสบการณ์กับการซ่อมแซมโปรแกรมอัตโนมัติในทางปฏิบัติ [2024-ICSE] [กระดาษ]
ทบทวนความไม่เป็นธรรมชาติของการซ่อมแซมโปรแกรมอัตโนมัติในยุคของโมเดลภาษาขนาดใหญ่ [2024-arxiv] [papper] [repo]
การศึกษาเชิงประจักษ์ของการนำ ChatGPT มาใช้เพื่อแก้ไขข้อบกพร่องในหมู่นักพัฒนามืออาชีพ [2023-ITA] [กระดาษ]
การใช้ประโยชน์จากโมเดลภาษาขนาดใหญ่สำหรับการประเมินความถูกต้องของแพตช์อัตโนมัติ[2024-TSE] [กระดาษ]
APPT ส่งเสริมการทำนายความถูกต้องของแพตช์อัตโนมัติผ่านโมเดลภาษาที่ได้รับการฝึกอบรมล่วงหน้า [2024-TSE] [กระดาษ] [repo]
สิ่งที่ดีที่สุดของทั้งสองโลก: การผสมผสานการเรียนรู้การฝังเข้ากับคุณสมบัติทางวิศวกรรมเพื่อการทำนายที่แม่นยำของแพตช์ที่ถูกต้อง [2023-TOSME] [กระดาษ] [repo]
เครื่องมือทำให้ไม่ถูกต้อง: การประเมินความถูกต้องของแพตช์อัตโนมัติผ่านการใช้เหตุผลเชิงความหมายและวากยสัมพันธ์ [2023-TSE] [กระดาษ] [repo]
PatchZero: การประเมินความถูกต้องของแพตช์อัตโนมัติแบบ Zero-Shot [2023-arxiv] [กระดาษ]
นี่เป็นการเปลี่ยนแปลงคำตอบของปัญหานั้นหรือไม่? การเชื่อมโยงคำอธิบายของข้อผิดพลาดและการเปลี่ยนแปลงรหัสเพื่อประเมินความถูกต้องของแพตช์ [2021-ASE] [กระดาษ] [repo]
การประเมินการเรียนรู้แบบเป็นตัวแทนของการเปลี่ยนแปลงโค้ดเพื่อทำนายความถูกต้องของแพทช์ในการซ่อมโปรแกรม [2020-ASE] [กระดาษ] [repo]
การสำรวจการปรับแต่งพารามิเตอร์อย่างมีประสิทธิภาพของโมเดลภาษาขนาดใหญ่ในการซ่อมแซมโปรแกรมอัตโนมัติ[2024-ASE] [กระดาษ]
MuBench: การเปรียบเทียบการซ่อมแซมโปรแกรมอัตโนมัติ: การศึกษาอย่างกว้างขวางเกี่ยวกับข้อบกพร่องทั้งในชีวิตจริงและข้อบกพร่องเทียม [2024-ISSTA] [กระดาษ]
CodeEditorBench: การประเมินความสามารถในการแก้ไขโค้ดของโมเดลภาษาขนาดใหญ่ [2024-arxiv] [กระดาษ] [repo]
GitBug-Java: เกณฑ์มาตรฐานที่ทำซ้ำได้ของข้อบกพร่อง Java ล่าสุด [2024-arxiv] [กระดาษ] [repo]
SWE-bench: โมเดลภาษาสามารถแก้ไขปัญหา GitHub ในโลกแห่งความเป็นจริงได้หรือไม่ [2024-ICLR] [กระดาษ] [repo]
DebugBench: การประเมินความสามารถในการดีบักของโมเดลภาษาขนาดใหญ่ [2024-arxiv] [กระดาษ] [repo]
ConDefects: ชุดข้อมูลใหม่เพื่อจัดการกับข้อกังวลเกี่ยวกับการรั่วไหลของข้อมูลสำหรับการแปลข้อผิดพลาดตาม LLM และการซ่อมแซมโปรแกรม [2024-arxiv] [กระดาษ] [repo]
การทบทวนอย่างมีวิจารณญาณของโมเดลภาษาขนาดใหญ่เกี่ยวกับวิศวกรรมซอฟต์แวร์: ตัวอย่างจาก chatgpt และการซ่อมแซมโปรแกรมอัตโนมัติ [2023-arxiv] [กระดาษ] [repo]
CodeScope: เกณฑ์มาตรฐานหลายมิติแบบมัลติทาสก์หลายภาษาตามการดำเนินการสำหรับการประเมิน LLM เกี่ยวกับความเข้าใจและการสร้างโค้ด [2023-arxiv] [กระดาษ] [repo]
FixEval: การประเมินตามการดำเนินการของการแก้ไขโปรแกรมสำหรับปัญหาการเขียนโปรแกรม [2023-APR] [กระดาษ] [repo]
แบบสำรวจการซ่อมแซมโปรแกรมอัตโนมัติตามการเรียนรู้ [2023-TOSEM] [กระดาษ] [repo]
การซ่อมแซมซอฟต์แวร์อัตโนมัติ: กระดาษบรรณานุกรม [2018-CSUR]]
การซ่อมแซมซอฟต์แวร์อัตโนมัติ: กระดาษสำรวจ [2017-TSE]]