| 日本語 | الإنجليزية | 中文简体 | 中文繁體 |
التعليمات البرمجية والبيانات الخاصة بورقة SWE-bench الخاصة بـ ICLR 2024: هل يمكن لنماذج اللغة حل مشكلات GitHub في العالم الحقيقي؟
يرجى الرجوع إلى موقعنا الإلكتروني للحصول على لوحة المتصدرين العامة وسجل التغيير للحصول على معلومات حول آخر التحديثات لمعيار SWE-bench.
يعد SWE-bench معيارًا لتقييم نماذج اللغات الكبيرة بشأن مشكلات البرامج في العالم الحقيقي التي تم جمعها من GitHub. نظرًا لقاعدة التعليمات البرمجية والمشكلة ، يتم تكليف نموذج اللغة بإنشاء تصحيح يعمل على حل المشكلة الموضحة.
للوصول إلى SWE-bench، انسخ الكود التالي وقم بتشغيله:
from datasets import load_dataset
swebench = load_dataset ( 'princeton-nlp/SWE-bench' , split = 'test' )
لبناء SWE-bench من المصدر، اتبع الخطوات التالية:
cd
في المستودع.conda env create -f environment.yml
لإنشاء بيئة conda باسم swe-bench
conda activate swe-bench
يمكنك تنزيل مجموعة بيانات SWE-bench مباشرة (المطورين، مجموعات الاختبار) أو من HuggingFace.
لاستخدام SWE-Bench، يمكنك:
مجموعات البيانات | نماذج |
---|---|
؟ مقعد SWE | ؟ سوي-لاما 13 ب |
؟ استرجاع "أوراكل". | ؟ سوي-لاما 13 ب (PEFT) |
؟ استرجاع BM25 13 كيلو | ؟ سوي-لاما 7 ب |
؟ استرجاع BM25 27 كيلو | ؟ سوي-لاما 7 ب (PEFT) |
؟ استرجاع BM25 40 ألف | |
؟ استرجاع BM25 50 ألف (رموز اللاما) |
لقد كتبنا أيضًا منشورات المدونة التالية حول كيفية استخدام أجزاء مختلفة من SWE-bench. إذا كنت ترغب في رؤية مشاركة حول موضوع معين، يرجى إعلامنا بذلك عبر مشكلة.
نود أن نسمع من مجتمعات البحث الأوسع في البرمجة اللغوية العصبية والتعلم الآلي وهندسة البرمجيات، ونرحب بأي مساهمات أو طلبات سحب أو مشكلات! للقيام بذلك، يرجى تقديم طلب سحب أو إصدار جديد وملء النماذج المقابلة وفقًا لذلك. سنتأكد من المتابعة قريبًا!
جهة الاتصال: كارلوس إي. خيمينيز وجون يانغ (البريد الإلكتروني: {carlosej, jy1682}@princeton.edu).
إذا وجدت أن عملنا مفيد، يرجى استخدام الاستشهادات التالية.
@inproceedings{
jimenez2024swebench,
title={{SWE}-bench: Can Language Models Resolve Real-world Github Issues?},
author={Carlos E Jimenez and John Yang and Alexander Wettig and Shunyu Yao and Kexin Pei and Ofir Press and Karthik R Narasimhan},
booktitle={The Twelfth International Conference on Learning Representations},
year={2024},
url={https://openreview.net/forum?id=VTF8yNQM66}
}
معهد ماساتشوستس للتكنولوجيا. تحقق من LICENSE.md
.