Этот репозиторий содержит ресурсы, на которые есть ссылки в документе «Настройка инструкций для больших языковых моделей: обзор».
Если вы найдете этот репозиторий полезным, пожалуйста, укажите следующее:
@article{zhang2023instruction,
title={Instruction Tuning for Large Language Models: A Survey},
author={Zhang, Shengyu and Dong, Linfeng and Li, Xiaoya and Zhang, Sen and Sun, Xiaofei and Wang, Shuhe and Li, Jiwei and Hu, Runyi and Zhang, Tianwei and Wu, Fei and others},
journal={arXiv preprint arXiv:2308.10792},
year={2023}
}
Следите за обновлениями! Другие соответствующие работы будут обновляться!
Настройка инструкций (IT) относится к процессу дальнейшего обучения больших языковых моделей (LLM) на наборе данных, состоящем из пар (instruction, output)
контролируемым образом, что устраняет разрыв между целью предсказания следующего слова LLM и пользователями. ' Цель состоит в том, чтобы LLM придерживались человеческих инструкций. Общий конвейер настройки инструкций показан ниже:
В статье мы проводим систематический обзор литературы, включая общую методологию ИТ, построение наборов ИТ-данных, обучение ИТ-моделей и приложений для различных модальностей, областей и приложений, а также анализ аспектов, которые влияют на результат ИТ (например, генерация выходных команд, размер набора данных команд и т. д.). Мы также рассматриваем потенциальные ловушки ИТ вместе с критикой в их адрес, а также усилиями, указывающими на текущие недостатки существующих стратегий и предлагаем некоторые направления для плодотворных исследований. Типология статьи следующая:
Тип | Имя набора данных | Бумага | Проект | Количество инструкций | Количество языков | Строительство | Открытый исходный код |
---|---|---|---|---|---|---|---|
Созданный человеком | Унифицированный контроль качества [1] | бумага | проект | 750 тыс. | En | созданный человеком | Да |
УнифицированныйСКГ [2] | бумага | проект | 0,8М | En | созданный человеком | Да | |
Естественные инструкции [3] | бумага | проект | 193 тыс. | En | созданный человеком | Да | |
Сверхъестественные инструкции [4] | бумага | проект | 5М | 55 Лан | созданный человеком | Да | |
Р3 [5] | бумага | проект | 12М | En | созданный человеком | Да | |
xP3 [6] | бумага | проект | 81М | 46 Ланг | созданный человеком | Да | |
Флан 2021 [7] | бумага | проект | 4,4 млн. | En | созданный человеком | Да | |
ЦИГ [8] | бумага | проект | - | - | - | Да | |
ИнструктироватьGPT [9] | бумага | - | 13К | Мульти | созданный человеком | Нет | |
Долли [10] | бумага | проект | 15 тыс. | En | созданный человеком | Да | |
ЛИМА [11] | бумага | проект | 1К | En | созданный человеком | Да | |
ЧатGPT [12] | бумага | - | - | Мульти | созданный человеком | Нет | |
ОпенАссистент [13] | бумага | проект | 161 443 | Мульти | созданный человеком | Да | |
Синтетические данные (дистилляция) | ОГИ [14] | - | проект | 43М | En | ChatGPT (отчетов о технике нет) | Да |
Неестественные инструкции [3] | бумага | проект | 240 тыс. | En | InstructGPT, созданный | Да | |
ИнструктВильд [15] | - | проект | 104К | - | ChatGPT-сгенерированный | Да | |
Эвол-Инструкт / МастерЛМ [16] | бумага | проект | 52К | En | ChatGPT-сгенерированный | Да | |
Альпака [17] | - | проект | 52К | En | InstructGPT, созданный | Да | |
ЛогиКоТ [18] | бумага | проект | - | En | GPT-4-сгенерировано | Да | |
ГПТ-4-ЛЛМ [19] | бумага | проект | 52К | Эн&Ж | GPT-4-сгенерировано | Да | |
Викунья [20] | - | проект | 70 тыс. | En | Реальные разговоры между пользователями и чатомGPT | Нет | |
Байзе v1 [21] | бумага | проект | 111,5 тыс. | En | ChatGPT-сгенерированный | Да | |
УльтраЧат [22] | бумага | проект | 675 тыс. | Эн&Ж | GPT 3/4 – создано | Да | |
Гуанако [23] | - | проект | 534 530 | Мульти | GPT (неизвестная версия) — создано | Да | |
Орка [24] | бумага | проект | 1,5М | En | GPT 3.5/4 – создано | Да | |
ПоделитьсяGPT | - | проект | 90 тыс. | Мульти | Реальные разговоры между пользователями и чатомGPT | Да | |
ДикийЧат | - | проект | 150 тыс. | Мульти | Реальные разговоры между пользователями и чатомGPT | Да | |
МастерКодер [25] | бумага | - | - | Код | LLaMa 2-сгенерировано | Нет | |
Магикодер [26] | бумага | проект | 75К/110К | Код | GPT-3.5 – создано | Да | |
Волновой кодер [27] | бумага | - | - | Код | GPT 4 – создано | Нет | |
Фи-1 [28] | бумага | проект | 6B жетонов | Код вопросов и ответов | GPT-3.5 – создано | Да | |
Фи-1,5 [29] | бумага | - | - | Код вопросов и ответов | GPT-3.5 – создано | Нет | |
Нектар [30] | бумага | проект | ~183 тыс. | En | GPT 4 – создано | Да | |
Синтетические данные (самосовершенствование) | Самообучение [31] | бумага | проект | 52К | En | InstructGPT, созданный | Да |
Инструкция обратного перевода [32] | бумага | - | 502К | En | Создано LLaMa | Нет | |
ВРАЩЕНИЕ [33] | бумага | проект | 49,8 тыс. | En | Созданный Зефиром | Да |
Название модели | # Параметры | Бумага | Проект | Базовая модель | Набор инструкций для поездов | ||
---|---|---|---|---|---|---|---|
Самостоятельная сборка | Имя | Размер | |||||
ИнструктироватьGPT [9] | 176Б | бумага | - | ГПТ-3 [36] | Да | - | - |
БЛУМЗ [34] | 176Б | бумага | проект | БЛУМ [37] | Нет | xP3 | - |
ФЛАН-Т5 [35] | 11Б | бумага | проект | Т5 [38] | Нет | ФЛАН 2021 | - |
Альпака [17] | 7Б | - | проект | ЛЛаМА [39] | Да | - | 52К |
Викунья [20] | 13Б | - | проект | ЛЛаМА [39] | Да | - | 70 тыс. |
ГПТ-4-ЛЛМ [19] | 7Б | бумага | проект | ЛЛаМА [39] | Да | - | 52К |
Клод [40] | - | бумага | - | - | Да | - | - |
МастерЛМ [16] | 7Б | бумага | проект | ЛЛаМА [39] | Да | Эвол-Инструкт | 70 тыс. |
ЧатGLM2 [41] | 6Б | бумага | проект | ГЛМ[41] | Да | - | 1.1 Токены |
ЛИМА [11] | 65Б | бумага | проект | ЛЛаМА [39] | Да | 1К | |
ОПТ-ИМЛ [42] | 175Б | бумага | проект | ОПТ [43] | Нет | - | - |
Долли 2.0 [44] | 12Б | - | проект | Пифия [45] | Нет | - | 15 тыс. |
Фалькон-Инструкт [46] | 40Б | бумага | проект | Сокол [46] | Нет | - | - |
Гуанако [23] | 7Б | - | проект | ЛЛаМА [39] | Да | - | 586К |
Минотавр [47] | 15Б | - | проект | Старкодер Плюс [48] | Нет | - | - |
Ноус-Гермес [49] | 13Б | - | проект | ЛЛаМА [39] | Нет | - | 300 тыс.+ |
ТУЛУ [50] | 6.7Б | бумага | проект | ОПТ [43] | Нет | Смешанный | - |
ЮЛан-Чат [51] | 13Б | - | проект | ЛЛаМА [39] | Да | - | 250 тыс. |
МОСС [52] | 16Б | - | проект | - | Да | - | - |
Аэроборос [53] | 13Б | - | проект | ЛЛаМА [39] | Да | - | - |
УльтраЛМ [22] | 13Б | бумага | проект | ЛЛаМА [39] | Да | - | - |
Имя набора данных | Бумага | Проект | Условия | # Задачи | |
---|---|---|---|---|---|
Пара модальностей | # Пример | ||||
МУЛЬТИИНСТРУКТ [54] | бумага | проект | Изображение-Текст | От 5 тыс. до 5 млн за задачу | 62 |
ПМЦ-ВКА [55] | бумага | проект | Изображение-Текст | 227 тыс. | 9 |
ЛАММ [56] | бумага | проект | Изображение-Текст | 186К | 9 |
Облако точек-текст | 10 тыс. | 3 | |||
Вижн-Флан [57] | бумага | проект | Мультипары | ~1М | 200+ |
АЛЛАВА [58] | бумага | проект | Изображение-текст | 1,4 млн. | 2 |
ПоделитьсяGPT4V [59] | бумага | проект | Изображение-текст | 1,2 млн. | 2 |
Название модели | # Параметры | Бумага | Проект | модальность | Базовая модель | Набор поездов | ||
---|---|---|---|---|---|---|---|---|
Название модели | # Параметры | Самостоятельная сборка | Размер | |||||
ИнструктПикс2Пикс [60] | 983М | бумага | проект | Изображение-текст | Стабильная диффузия [62] | 983М | Да | 450 тыс. |
ЛЛаВА [61] | 13Б | бумага | проект | Изображение-текст | ЗАЖИМ [63] | 400М | Да | 158 тыс. |
ЛЛаМА [39] | 7Б | |||||||
ЛЛаМА [39] | 7Б | |||||||
Видео-ЛЛаМА [64] | - | бумага | проект | Изображение-Текст-Видео-Аудио | БЛИП-2 [65] | - | Нет | - |
Привязка изображения [66] | - | |||||||
Викунья[20] | 7Б/13Б | |||||||
ИнструктироватьBLIP [67] | 12Б | бумага | проект | Изображение-Текст-Видео | БЛИП-2 [65] | - | Нет | - |
Выдра [68] | - | бумага | проект | Изображение-Текст-Видео | ОткрытьФламинго [69] | 9Б | Да | 2,8 млн. |
Мультимодальный-GPT [70] | - | бумага | проект | Изображение-Текст-Видео | ОткрытьФламинго [69] | 9Б | Нет | - |
Домен | Название модели | # Параметры | Бумага | Проект | Базовая модель | Размер поезда |
---|---|---|---|---|---|---|
Медицинский | Радиология-GPT [71] | 7Б | бумага | проект | Альпака[17] | 122 тыс. |
ЧатДоктор [72] | 7Б | бумага | проект | ЛЛаМА [39] | 122 тыс. | |
ЧатGLM-Med [73] | 6Б | - | проект | ЧатGLM [41] | - | |
Письмо | Пишущая-Альпака [74] | 7Б | бумага | - | ЛЛаМА [39] | - |
Соредактирование [75] | 11Б | бумага | проект | ФЛАН-Т5 [7] | 82К | |
Сопоэт [76] | 11Б | бумага | проект | Т5[38] | - | |
Генерация кода | МастерКодер [25] | 15Б | бумага | проект | СтарКодер [48] | 78К |
Анализ настроений | ИТ-МТЛ [77] | 220М | бумага | проект | Т5[38] | - |
Арифметика | Коза [78] | 7Б | бумага | проект | ЛЛаМА [39] | 1,0 М |
Извлечение информации | ИнструктироватьUIE [79] | 11Б | бумага | проект | ФЛАН-Т5 [7] | 1,0 М |
Имя | Бумага | Проект |
---|---|---|
ЛоРА [80] | бумага | проект |
ПОДСКАЗКА [81] | бумага | проект |
КЛоРА [82] | бумага | проект |
ЛОМО [83] | бумага | проект |
Дельта-тюнинг [84] | бумага | проект |
Закрытые оценки | Бумага | Проект |
---|---|---|
Массовое многозадачное понимание языка (MMLU) [85] | бумага | проект |
МАТЕМАТИКА [86] | бумага | проект |
GSM8К [87] | бумага | проект |
BIG-Bench Hard (BBH) [88] | бумага | проект |
HumanEval [89] | бумага | проект |
ИФевал [90] | бумага | проект |
Оценки на основе GPT | Бумага | Проект |
---|---|---|
АльпакаЭвал [91] | - | проект |
AlpacaEval с контролем длины [92] | бумага | проект |
МТ-Скамья [93] | бумага | проект |
ВайлдБенч [94] | бумага | проект |
[1] Хашаби, Дэниел, Севон Мин, Тушар Хот, Ашиш Сабхарвал, Ойвинд Тафьорд, Питер Кларк и Ханнане Хаджиширзи. Unifiedqa: пересекая границы форматов с помощью единой системы контроля качества . Препринт arXiv arXiv:2005.00700 (2020). Бумага
[2] Тяньбао Се, Чэнь Генри Ву, Пэн Ши, Жуйци Чжун, Торстен Шолак, Митихиро Ясунага, Цзянь-Шэн Ву, Мин Чжун, Пэнчэн Инь, Сида И. Ван, Виктор Чжун, Бэйлинь Ван, Чэнцзу Ли, Коннор Бойл, Ансонг Ни, Зию Яо, Драгомир Р. Радев, Цайминг Сюн, Линпэн Конг, Руй Чжан, Ной А. Смит, Люк Зеттлмойер и Тао Ю. Unifiedskg: унификация и многозадачность структурированных знаний, основанных на языковых моделях преобразования текста в текст . На конференции по эмпирическим методам обработки естественного языка, 2022 г. Документ.
[3] Мишра, Сваруп и Хашаби, Даниил и Барал, Читта и Хаджиширзи, Ханнане. Неестественные инструкции: Настройка языковых моделей практически без человеческого труда . Препринт arXiv arXiv:2212.09689, 2022. Бумага
[3] Или Хонович, Томас Шиалом, Омер Леви и Тимо Шик. Неестественные инструкции: Настройка языковых моделей практически без человеческого труда . Препринт arXiv arXiv:2212.09689, 2022. Бумага
[4] Ичжун Ван, Сваруп Мишра, Пега Алипурмолабаши, Йегане Корди, Амирреза Мирзаи, Анджана Арункумар, Арджун Ашок, Арут Сельван Дханасекаран, Атхарва Наик, Дэвид Стап и др. Сверхестественные инструкции: обобщение посредством декларативных инструкций на более чем 1600 задач . В ЭМНЛП, 2022. Бумага
[5] Виктор Сан, Альберт Уэбсон, Колин Раффель, Стивен Х. Бах, Линтанг Сутавика, Заид Аляфеай, Антуан Шаффен, Арно Стиглер, Тевен Ле Скао, Арун Раджа и др. Многозадачное обучение позволяет безошибочно обобщать задачи . Препринт arXiv arXiv:2110.08207, 2021. Бумага
[6] Никлас Мюннигофф, Томас Ван, Линтанг Сутавика, Адам Робертс, Стелла Бидерман, Тевен Ле Скао, М. Сайфул Бари, Шэн Шен, Чжэн-Синь Юн, Хейли Шёлкопф и др. Межъязыковое обобщение посредством тонкой настройки многозадачности . Препринт arXiv arXiv:2211.01786, 2022. Бумага
[7] Шейн Лонгпре, Ле Хоу, Ту Ву, Альберт Уэбсон, Хён Вон Чунг, И Тай, Денни Чжоу, Куок Ви Ле, Баррет Зоф, Джейсон Вэй и др. Сборник флана: Проектирование данных и методов эффективной настройки инструкций . Препринт arXiv arXiv:2301.13688, 2023. Бумага
[8] Гэ Чжан, Яминь Ши, Жуйбо Лю, Жуйбинь Юань, Ичжи Ли, Сивэй Донг, Юй Шу, Чжаоцюнь Ли, Цзэкун Ван, Чэнхуа Линь, Вэнь-Фэнь Хуан и Цзе Фу. Китайский специалист по открытым инструкциям общего профиля: предварительный выпуск . ArXiv, abs/2304.07987, 2023. Бумага
[9] Лонг Оуян, Джеффри Ву, Сюй Цзян, Диого Алмейда, Кэрролл Уэйнрайт, Памела Мишкин, Чонг Чжан, Сандини Агарвал, Катарина Слама, Алекс Рэй и др. Обучение языковых моделей следованию инструкциям с обратной связью от человека . Достижения в области нейронных систем обработки информации, 35: 27730–27744, 2022. Статья.
[10] Майк Коновер, Мэтт Хейс, Анкит Матур, Сянгруй Мэн, Цзяньвэй Се, Цзюнь Ван, Сэм Шах, Али Годси, Патрик Венделл, Матей Захария и др. Свободная тележка: представляем первый в мире по-настоящему открытый фильм с инструкциями , 2023 год. Бумага
[11] Чантин Чжоу, Пэнфэй Лю, Пусинь Сюй, Срини Айер, Цзяо Сунь, Юнин Мао, Сюэчжэ Ма, Авиа Эфрат, Пин Ю, Л. Ю, Сьюзан Чжан, Гарги Гош, Майк Льюис, Люк Зеттлмойер и Омер Леви. Лима: Для согласованности лучше меньше, да лучше . ArXiv, abs/2305.11206, 2023. Бумага
[12] ОпенАИ. Представляем чатгпт . Сообщение в блоге openai.com/blog/chatgpt, 2022 г. Бумага
[13] Андреас Кёпф, Янник Килчер, Дмитрий фон Рютте, Сотирис Анагностидис, Жи-Руи Там, Кит Стивенс, Абдулла Бархум, Нгуен Минь Дюк, Оливер Стэнли, Ричард Нагифи и др. Диалоги Openassistant – демократизация согласования модели большого языка . Препринт arXiv arXiv:2304.07327, 2023. Бумага
[14] LAION.ai. Oig: универсальный набор данных открытых инструкций , 2023 г.
[15] Фучжао Сюэ, Кабир Джайн, Махир Хитеш Шах, Зангвэй Чжэн и Ян Ю. Инструкция в дикой природе: набор данных пользовательских инструкций . github.com/XueFuzhao/InstructionWild,2023
.
[16] Цань Сюй, Цинфэн Сунь, Кай Чжэн, Сюбо Гэн, Пу Чжао, Цзячжан Фэн, Чунъян Тао и Даксин Цзян. Wizardlm: Расширение возможностей больших языковых моделей для выполнения сложных инструкций , 2023. Бумага
[17] Рохан Таори, Ишаан Гулраджани, Тяньи Чжан, Ян Дюбуа, Сюэчен Ли, Карлос Гестрин, Перси Лян и Тацунори Б. Хасимото. Альпака: надежная, воспроизводимая модель следования инструкциям . Стэнфордский центр исследований моделей фундамента. https://crfm.stanford.edu/2023/03/13/alpaca.html
, 3(6):7, 2023.
[18] Ханмэн Лю, Чжиян Тэн, Лэйян Цуй, Чаоли Чжан, Цицзи Чжоу и Юэ Чжан. Logicot: сбор данных по настройке инструкций по логической цепочке мыслей с помощью gpt-4 . ArXiv, abs/2305.12147, 2023. Бумага
[19] Баолинь Пэн, Чунюань Ли, Пэнчэн Хэ, Мишель Галлей и Цзяньфэн Гао. Инструкция по настройке с помощью gpt-4 . Препринт arXiv arXiv:2304.03277, 2023. Бумага
[20] Вэй-Лин Чан, Чжуохань Ли, Цзы Линь, Инь Шэн, Чжанхао Ву, Хао Чжан, Ляньминь Чжэн, Сиюань Чжуан, Юнхао Чжуан, Джозеф Э. Гонсалес и др. Vicuna: Чат-бот с открытым исходным кодом, впечатляющий gpt-4 с качеством чатgpt 90% . См. https://vicuna.lmsys.org
(по состоянию на 14 апреля 2023 г.), 2023 г.
[21] Цанвэнь Сюй, Дайя Го, Нань Дуань и Джулиан Маколи. Baize: модель чата с открытым исходным кодом с эффективной настройкой параметров данных самостоятельного чата . Бумага
[22] Нин Дин, Юлинь Чен, Бокай Сюй, Юцзя Цинь, Чжи Чжэн, Шэндин Ху, Чжиюань Лю, Маосун Сунь и Боуэн Чжоу. Улучшение языковых моделей чата за счет масштабирования высококачественных обучающих бесед . Препринт arXiv arXiv:2305.14233, 2023. Бумага
[23] Джозефус Чунг. Гуанако: Генеративный универсальный помощник для адаптивной контекстно-зависимой многоязычной продукции на естественном языке , 2021 г.
[24] Субхабрата Мукерджи, Ариндам Митра, Ганеш Джавахар, Сахадж Агарвал, Хамид Паланги и Ахмед Авадаллах. 2023. Орка: Прогрессивное обучение на основе сложных объяснений следов gpt-4. Препринт arXiv arXiv:2306.02707. Бумага
[25] Цзыян Ло, Цань Сюй, Пу Чжао, Цинфэн Сунь, Сюбо Гэн, Вэньсян Ху, Чунъян Тао, Цзин Ма, Цинвэй Линь и Даксин Цзян. 2023. Wizardcoder: расширение возможностей больших языковых моделей кода с помощью evol-instruct. Бумага
[26] Юйсян Вэй, Чжэ Ван, Цзявэй Лю, Ифэн Дин и Линмин Чжан. 2023б. Magiccoder: Исходный код — это все, что вам нужно. Препринт arXiv arXiv:2312.02120. Бумага
[27] Чжаоцзянь Юй, Синь Чжан, Нин Шан, Янъю Хуан, Цань Сюй, Ишуцзе Чжао, Вэньсян Ху и Цюфэн Инь. 2023. Wavecoder: широко распространенная и универсальная расширенная настройка инструкций с улучшенной генерацией данных. Препринт arXiv arXiv:2312.14187. Бумага
[28] Сурья Гунасекар, И Чжан, Джоти Анеха, Кайо Сезар Теодоро Мендес, Алли Дель Джорно, Сивакант Гопи, Моджан Джавахерипи, Пьеро Кауфманн, Густаво де Роса, Олли Саарикиви и др. 2023. Учебники — это все, что вам нужно. Препринт arXiv arXiv:2306.11644. Бумага
[29] Юаньчжи Ли, Себастьен Бубек, Ронен Эльдан, Элли Дель Джорно, Сурия Гунасекар и Инь Тат Ли. 2023ч. Учебники – это все, что вам нужно ii: технический отчет фи-1,5. Препринт arXiv arXiv:2309.05463. Бумага
[30] Банхуа Чжу, Эван Фрик, Тяньхао Ву, Ханлинь Чжу и Цзянтао Цзяо. 2023а. Скворец-7b: Повышение полезности и безвредности фильма с помощью rlaif. Бумага
[31] Ичжун Ван, Йегане Корди, Сваруп Мишра, Алиса Лю, Ной А. Смит, Дэниел Хашаби и Ханнане Хаджиширзи. Самообучение: согласование языковой модели с самостоятельно сгенерированными инструкциями . Препринт arXiv arXiv:2212.10560, 2022. Бумага
[32] Сянь Ли, Пин Юй, Чантин Чжоу, Тимо Шик, Люк Зеттлмойер, Омер Леви, Джейсон Уэстон и Майк Льюис. 2023г. Самовыравнивание с обратной трансляцией инструкций. Препринт arXiv arXiv:2308.06259. Бумага
[33] Цзысян Чен, Ихэ Дэн, Хуэйчжуо Юань, Кайсюань Цзи и Цюаньцюань Гу. 2024. Самостоятельная точная настройка преобразует слабые языковые модели в сильные языковые модели. Препринт arXiv arXiv:2401.01335. Бумага
[34] Никлас Мюннигофф, Томас Ван, Линтанг Сутавика, Адам Робертс, Стелла Бидерман, Тевен Ле Скао, М. Сайфул Бари, Шэн Шен, Чжэн-Синь Юн, Хейли Шёлкопф и др. 2022. Межъязыковое обобщение посредством тонкой настройки многозадачности. Препринт arXiv arXiv:2211.01786. Бумага
[35] Хён Вон Чунг, Ле Хоу, С. Лонгпре, Баррет Зоф, И Тай, Уильям Федус, Эрик Ли, Сюэчжи Ван, Мостафа Дегани, Сиддхартха Брахма, Альберт Уэбсон, Шисян Шейн Гу, Чжуюн Дай, Мирак Сузгун, Синьюнь Чен , Ааканша Чоудхери, Даша Вальтер, Шаран Наранг, Гаурав Мишра, Адамс Вэй Ю, Винсент Чжао, Яньпин Хуан, Эндрю М. Дай, Хункун Ю, Слав Петров, Эд Хуай Синь Чи, Джефф Дин, Джейкоб Девлин, Адам Робертс, Денни Чжоу, Куок В. Ле и Джейсон Вэй. Масштабирование языковых моделей с точной настройкой инструкций . ArXiv, abs/2210.11416, 2022. Бумага
[36] Том Б. Браун, Бенджамин Манн, Ник Райдер, Мелани Суббия, Джаред Каплан, Прафулла Дхаривал, Арвинд Нилакантан, Пранав Шьям, Гириш Састри, Аманда Аскелл, Сандини Агарвал, Ариэль Герберт-Восс, Гретхен Крюгер, Ти Джей Хениган, Ревон Чайлд, Адитья Рамеш, Дэниэл М. Зиглер, Джефф Ву, Клеменс Винтер, Кристофер Гессе, Марк Чен, Эрик Сиглер, Матеуш Литвин, Скотт Грей, Бенджамин Чесс, Джек Кларк, Кристофер Бернер, Сэм МакКэндлиш, Алек Рэдфорд, Илья Суцкевер и Дарио Амодей. Языковые модели учатся с небольшим количеством попыток . ArXiv, abs/2005.14165, 2020. Бумага
[37] Скао, Тевен Ле, Анджела Фан, Кристофер Акики, Элли Павлик, Сузана Илич, Дэниел Хесслоу, Роман Кастанье и др. Блум: Многоязычная языковая модель открытого доступа с 176 параметрами . Препринт arXiv arXiv:2211.05100 (2022 г.). Бумага
[38] Колин Раффел, Ноам М. Шазир, Адам Робертс, Кэтрин Ли, Шаран Наранг, Майкл Матена, Янки Чжоу, Вэй Ли и Питер Дж. Лю. Исследование границ трансферного обучения с помощью унифицированного преобразователя текста в текст . ArXiv, abs/1910.10683, 2019. Бумага
[39] Уго Туврон, Тибо Лавриль, Готье Изакар, Ксавье Мартине, Мари-Анн Лашо, Тимоти Лакруа, Батист Розьер, Наман Гойал, Эрик Хамбро, Фейсал Ажар, Орельен Родригес, Арман Жулен, Эдуард Грав и Гийом Лампле. Лама: открытые и эффективные базовые языковые модели . ArXiv, abs/2302.13971, 2023. Бумага.
[40] Юнтао Бай, Саурав Кадават, Сандипан Кунду, Аманда Аскелл, Джексон Кернион, Энди Джонс, Анна Чен, Анна Голди, Азалия Мирхосейни, Кэмерон Маккиннон и др. Конституционный ИИ: Безвредность от обратной связи ИИ . Препринт arXiv arXiv:2212.08073, 2022. Бумага
[41] Чжэнсяо Ду, Юйцзе Цянь, Сяо Лю, Мин Дин, Цзечжун Цю, Жилин Ян и Цзе Тан. Glm: Предварительное обучение общей языковой модели с авторегрессионным заполнением пробелов . В материалах 60-го ежегодного собрания Ассоциации компьютерной лингвистики (Том 1: Длинные статьи), страницы 320–335, 2022. Статья
[42] Сринивас Айер, Сяоджуань Линь, Рамакант Пасунуру, Тодор Михайлов, Дэниел Симиг, Пинг Ю, Курт Шустер, Тианлу Ван, Цин Лю, Пунит Сингх Коура, Сиань Ли, Брайан О'Хоро, Габриэль Перейра, Джефф Ван, Кристофер Деван , Асли Челикилмаз, Люк Зеттлмойер и Веселин Стоянов. Opt-iml: Масштабирование метаобучения инструкций языковой модели через призму обобщения . ArXiv, abs/2212.12017, 2022. Бумага
[43] Сьюзан Чжан, Стивен Роллер, Наман Гоял, Микель Артече, Моя Чен, Шуохуэй Чен, Кристофер Деван, Мона Т. Диаб, Сиань Ли, Си Виктория Лин, Тодор Михайлов, Майл Отт, Сэм Шлейфер, Курт Шустер, Дэниел Симиг , Пунит Сингх Кура, Анджали Шридхар, Тианлу Ван и Люк Зеттлмойер. 2022а. Опция: открытые предварительно обученные языковые модели преобразователей. ArXiv, абс/2205.01068. Бумага
[44] Майк Коновер, Мэтт Хейс, Анкит Матур, Сянгруй Мэн, Цзяньвэй Се, Цзюнь Ван, Сэм Шах, Али Годси, Патрик Венделл, Матей Захария и др. Свободная тележка: представляем первый в мире по-настоящему открытый фильм с инструкциями , 2023 год.
[45] Стелла Роуз Бидерман, Хейли Шёлкопф, Квентин Дж. Энтони, Херби Брэдли, Кайл О'Брайен, Эрик Халлахан, Мохаммад Афла Хан, Шиваншу Пурохит, USVSN Сай Прашант, Эдвард Рафф, Авия Скоурон, Линтанг Сутавика и Оскар ван дер Вал. Pythia: пакет для анализа больших языковых моделей при обучении и масштабировании . ArXiv, abs/2304.01373, 2023. Бумага
[46] Эбтесам Алмазруи, Хамза Алобейдли, Абдулазиз Альшамси, Алессандро Каппелли, Руксандра Кожокару, Меруан Дебба, Этьен Гоффине, Дэниел Хеслоу, Жюльен Лоне, Квентин Малартич, Бадреддин Нун, Батист Паннье и Гильерме Пенедо. Falcon-40B: открытая модель большого языка с самыми современными характеристиками . 2023. Бумага
[47] Коллектив OpenAccess AI . программное обеспечение:huggingface.co/openaccess-ai-collective/minotaur-15b, 2023 г.
[48] Раймонд Ли, Лубна Бен Аллал, Янтян Цзы, Никлас Мюннигофф, Денис Кочетков, Чэнхао Моу, Марк Мароне, Кристофер Акики, Цзя Ли, Дженни Чим и др. Starcoder: да пребудет с тобой источник ! Препринт arXiv arXiv:2305.06161, 2023. Бумага
[49] НоусИсследования . программное обеспечение:huggingface.co/NousResearch/Nous-Hermes-13b, 2023 г.
[50] Ичжонг Ван, Хэмиш Ивисон, Прадип Дасиги, Джек Хессель, Тушар Хот, Кьяти Рагави Чанду, Дэвид Уодден, Келси Макмиллан, Ной А. Смит, Из Белтаги и Ханна Хаджиширзи. Как далеко могут зайти верблюды? изучаем состояние инструкций по настройке на открытых ресурсах . ArXiv, abs/2306.04751, 2023. Бумага
[51] Команда Юлан-Чат. Yulan-chat: двуязычный чат-бот с открытым исходным кодом . github.com/RUC-GSAI/YuLan-Chat, 2023 г.
[52] Сунь Тяньсян и Цю Сипэн. Мосс . Сообщение в блоге txsun1997.github.io/blogs/moss.html, 2023 г.
[53] Джон Дурбин. Айроборос . программное обеспечение: github.com/jondurbin/airoboros, 2023 г.
[54] Чжиян Сюй, Ин Шен и Лифу Хуан. Мультиинструкция: улучшение мультимодального обучения с нулевым выстрелом посредством настройки инструкций . ArXiv, abs/2212.10773, 2022. Бумага
[55] Сяомань Чжан, Чаойи Ву, Цзыхэн Чжао, Вэйсюн Линь, Я Чжан, Яньфэн Ван и Вэйди Се. Pmc-vqa: Настройка визуальных инструкций для визуального ответа на медицинские вопросы . ArXiv, абс/2305.10415. 2023. Бумага
[56] Чжэньфэй Инь, Цзюн Ван, Цзяньцзянь Цао, Желунь Ши, Диннин Лю, Мукай Ли, Лу Шэн, Лэй Бай, Сяошуй Хуан, Чжиюн Ван, Ванли Оуян и Цзин Шао. Ламм: Набор данных, структура и тест для настройки мультимодальных инструкций с помощью языка . ArXiv, abs/2306.06687, 2023. Бумага
[57] Чжиян Сюй, Чао Фэн, Рулин Шао, Тревор Эшби, Ин Шен, Ди Цзинь, Юй Чэн, Цифань Ван и Лифу Хуан. 2024. Vision-flan: Масштабирование задач, помеченных человеком, при настройке визуальных инструкций. Препринт arXiv arXiv:2402.11690. Бумага
[58] Гуймин Харди Чен, Шунянь Чен, Жуйфэй Чжан, Цзюньин Чен, Сянбо Ву, Чжии Чжан, Чжихун Чен, Цзяньцюань Ли, Сян Ван и Бенью Ван. 2024а. Аллава: использование данных, синтезированных с помощью gpt4v, для облегченной модели языка видения. Препринт arXiv arXiv:2402.11684. Бумага
[59] Линь Чен, Цзисон Ли, Сяои Донг, Пань Чжан, Цунхуэй Хэ, Цзяци Ван, Фэн Чжао и Дахуа Линь. 2023а. Sharegpt4v: Улучшение больших мультимодальных моделей с улучшенными подписями. Препринт arXiv arXiv:2311.12793. Бумага
[60] Тим Брукс, Александр Холинский и Алексей А. Эфрос. Instructpix2pix: Учимся следовать инструкциям по редактированию изображений . ArXiv, abs/2211.09800, 2022. Бумага
[61] Хаотянь Лю, Чунюань Ли, Цинъян Ву и Юн Джэ Ли. Визуальная инструкция по настройке . ArXiv, abs/2304.08485, 2023. Бумага
[62] Робин Ромбах, Андреас Блаттманн, Доминик Лоренц, Патрик Эссер и Бьорн Оммер. Синтез изображений высокого разрешения с использованием моделей скрытой диффузии . В материалах конференции IEEE/CVF по компьютерному зрению и распознаванию образов, страницы 10684–10695, 2022 г. Документ.
[63] Алек Рэдфорд, Чон Ук Ким, Крис Халласи, Адитья Рамеш, Габриэль Го, Сандини Агарвал, Гириш Састри, Аманда Аскелл, Памела Мишкин, Джек Кларк, Гретхен Крюгер и Илья Суцкевер. Изучение переносимых визуальных моделей под контролем естественного языка . На Международной конференции по машинному обучению, 2021 г. Статья
[64] Хан Чжан, Синь Ли и Лидун Бин. Видео-лама: настроенная на основе инструкций аудиовизуальная языковая модель для понимания видео . Препринт arXiv arXiv:2306.02858, 2023. Бумага
[65] Джуннан Ли, Дунсюй Ли, Сильвио Саварезе и Стивен Хой. BLIP-2: начальная предварительная подготовка языковых изображений с помощью кодировщиков замороженных изображений и больших языковых моделей . В ICML, 2023 г. Бумага
[66] Рохит Гирдхар, Алааэльдин Эль-Нуби, Чжуан Лю, Маннат Сингх, Кальян Васудев Алвала, Арманд Жулен и Ишан Мисра. Imagebind: одно пространство для встраивания, чтобы связать их все . В ЦВПР, 2023. Бумага
[67] Вэньлян Дай, Цзюньнань Ли, Дунсю Ли, Энтони Мэн Хуат Тионг, Цзюньци Чжао, Вэйшэн Ван, Боян Ли, Паскаль Фунг и Стивен Хой. Instructblip: На пути к универсальным моделям визуального языка с настройкой инструкций . ArXiv, abs/2305.06500, 2023. Бумага
[68] Бо Ли, Юаньхан Чжан, Лянъюй Чен, Цзинхао Ван, Цзинкан Ян и Цзивэй Лю. Otter: мультимодальная модель с контекстной настройкой инструкций . ArXiv, abs/2305.03726, 2023. Бумага
[69] Анас Авадалла, Ирена Гао, Джошуа Гарднер, Джек Хессель, Юсуф Ханафи, Ванронг Чжу, Кальяни Марат, Йонатан Биттон, Самир Гадре, Женя Джитцев и др. Опенфламинго , 2023.
[70] Тао Гун, Чэнци Лю, Шилун Чжан, Юдун Ван, Мяо Чжэн, Цяньмэнке Чжао, Куйкунь Лю, Вэньвэй Чжан, Пин Ло и Кай Чен. Мультимодальный-gpt: видение и языковая модель для диалога с людьми . ArXiv, abs/2305.04790, 2023. Бумага
[71] Чжэн Лю, Аосяо Чжун, Ивэй Ли, Лунтао Ян, Чао Цзюй, Цзихао Ву, Чун Ма, Пэн Шу, Чэн Чен, Секеун Ким, Хайсин Дай, Линь Чжао, Дацзян Чжу, Цзюнь Лю, Вэй Лю, Динган Шен , Сян Ли, Цюаньчжэн Ли и Тяньмин Лю. Radiology-gpt: большая языковая модель для радиологии . 2023. Бумага
[72] Юньсян Ли, Цзихань Ли, Кай Чжан, Жуйлун Дэн и Ю Чжан. Chatdoctor: модель медицинского чата, доработанная на модели ламы с использованием медицинских знаний . ArXiv, abs/2303.14070, 2023. Бумага
[73] Сэндун Чжао Бин Цинь Тин Лю Хаочунь Ван, Чи Лю. Чатглм-мед. github.com/SCIR-HI/Med-ChatGLM , 2023 г.
[74] Юэ Чжан, Лэян Цуй, Дэн Цай, Синтин Хуан, Тао Фан и Вэй Би. 2023д. Настройка многозадачной инструкции ламы для конкретных сценариев: предварительное исследование помощи в написании. ArXiv, абс/2305.13225. Бумага
[75] Випул Рахеджа, Дхрув Кумар, Райан Ку и Донгеп Кан. 2023. Coedit: редактирование текста с помощью настройки инструкций для конкретной задачи. ArXiv, абс/2305.09857. Бумага
[76] Тухин Чакрабарти, Вишак Падмакумар и Хэнсин Хэ. 2022. Помогите мне написать стихотворение-инструкцию, которая станет средством совместного написания стихов. ArXiv, абс/2210.13669. Бумага
[77] Сиддхарт Вария, Шуай Ван, Кишалой Гальдер, Роберт Вакаряну, Мигель Баллестерос, Яссин Бенаджиба, Неха Энн Джон, Ришита Анубхай, Смаранда Муресан и Дэн Рот. 2022. Настройка инструкций для анализа настроений на основе нескольких аспектов. ArXiv, абс/2210.06629. Бумага
[78] Тиедун Лю и Брайан Киан Сян. Коза: точно настроенная лама превосходит gpt-4 в арифметических задачах . Препринт arXiv arXiv:2305.14201, 2023. Бумага
[79] Сяо Ван, Вэй Чжоу, Цань Цзу, Хань Ся, Тяньцзэ Чен, Юань Чжан, Руй Чжэн, Цзюньцзе Е, Ци Чжан, Тао Гуй, Цзихуа Кан, Цз. Ян, Сиюань Ли и Чунсай Ду. Instructuie: настройка многозадачных инструкций для унифицированного извлечения информации . ArXiv, abs/2304.08085, 2023. Бумага
[80] Эдвард Дж. Ху, Йелун Шен, Филип Уоллис, Цзэюань Аллен-Чжу, Юаньчжи Ли, Шин Ван, Лу Ван и Вэйчжу Чен. 2021. Лора: Низкоранговая адаптация больших языковых моделей . Препринт arXiv arXiv:2106.09685. Бумага
[81] Хэмиш Ивисон, Акшита Бхагиа, Ичжонг Ван, Ханнане Хаджиширзи и Мэтью Э. Питерс. 2022. Подсказка: настройка инструкций гиперсети для эффективного обобщения с нулевым выстрелом . ArXiv, абс/2212.10315. Бумага
[82] Тим Деттмерс, Артидоро Паньони, Ари Хольцман и Люк Зеттлмойер. 2023. Qlora: Эффективная точная настройка квантованных пленок . Препринт arXiv arXiv:2305.14314. Бумага
[83] Кай Льв, Юйцин Ян, Тэнсяо Лю, Ци Цзе Гао, Ципэн Го и Сипэн Цю. 2023. Полная тонкая настройка параметров для больших языковых моделей с ограниченными ресурсами . Бумага
[84] Вейцэ Чен, Цзин И, Вэйлинь Чжао, Сяочжи Ван, Чжиюань Лю, Хайтао Чжэн, Цзяньфэй Чен, Ю. Лю, Цзе Тан, Цзюань Цзы Ли и Маосун Сунь. 2023б. Точная настройка с эффективным использованием параметров крупномасштабных предварительно обученных языковых моделей . Природный машинный интеллект, 5: 220–235. Бумага
[85] Хендрикс, Дэн и Бернс, Коллин и Басарт, Стивен и Зу, Энди и Мажейка, Мантас и Сонг, Дон и Стейнхардт, Джейкоб. 2020а. Измерение понимания языка в условиях многозадачности . arXiv:2009.03300. Бумага
[86] Хендрикс, Дэн и Бернс, Коллин и Кадават, Саурав и Арора, Акул и Басарт, Стивен и Танг, Эрик и Сонг, Доун и Стейнхардт, Джейкоб. 2021. Измерение решения математических задач с использованием набора математических данных . Препринт arXiv arXiv:2103.03874. Бумага
[87] Карл Коббе, Винит Косараджу, Мохаммад Баварян, Марк Чен, Хиву Джун, Лукаш Кайзер, Маттиас Плапперт, Джерри Творек, Джейкоб Хилтон, Рейитиро Накано, Кристофер Гессе и Джон Шульман. 2021. Обучение проверяющих решению математических словесных задач . Бумага
[88] Сузгун, Мирак и Скейлс, Натан и Ш{"а}рли, Натанаэль и Герман, Себастьян и Тай, Йи и Чунг, Хён Вон и Чоудхери, Ааканша и Ле, Куок Ви и Чи, Эд Х и Чжоу, Денни и другие, 2022a. Сложные масштабные задачи и может ли их решить цепочка мыслей . препринт arXiv:2210.09261 Бумага
[89] Чен, Марк и Творек, Джерри и Джун, Хиву и Юань, Цимин и Пинто, Энрике Понде Де Оливейра и Каплан, Джаред и Эдвардс, Харри и Бурда, Юрий и Джозеф, Николас и Брокман, Грег и другие. 2021а. Оценка больших языковых моделей, обученных на коде . Препринт arXiv arXiv:2107.03374 Бумага
[90] Чжоу, Джеффри и Лу, Тяньцзян и Мишра, Сваруп и Брахма, Сиддхартха и Басу, Суджой и Луан, И и Чжоу, Денни и Хоу, Ле. 2023б. Оценка после инструкций для больших языковых моделей . Препринт arXiv arXiv:2311.07911 Бумага
[91] Сюэчен Ли, Тяньи Чжан, Ян Дюбуа, Рохан Таори, Ишаан Гулраджани, Карлос Гестрин, Перси Лян и Тацунори Б. Хасимото. 2023ч. AlpacaEval: автоматический оценщик моделей следования инструкциям . Репозиторий GitHub GitHub
[92] Дюбуа, Янн и Галамбози, Бал{'а}зс и Лян, Перси и Хасимото, Тацунори Б. 2024. AlpacaEval с контролем длины: простой способ устранения смещения автоматических вычислителей . Препринт arXiv arXiv:2404.04475 Бумага
[93] Чжэн, Ляньминь и Чан, Вэй-Линь и Шэн, Инь и Чжуан, Сиюань и Ву, Чжанхао и Чжуан, Юнхао и Линь, Цзы и Ли, Чжохань и Ли, Дачэн и Син, Эрик и другие. 2023. Судейство в качестве судьи с помощью mt-bench и арены чат-бота . Достижения в области нейронных систем обработки информации. Статья
[94] Линь, Билл Ючен и Дэн, Юнтян и Чанду, Кьяти и Брахман, Фаэз и Равичандер, Абхилаша и Пяткин, Валентина и Дзири, Нуха и Брас, Ронан Ле и Чой, Еджин. 2024. WILDBENCH: Сравнительный анализ LLM с помощью сложных задач реальных пользователей в дикой природе . Препринт arXiv arXiv:2406.04770 Бумага
[95] По-Ньен Кунг и Наньюн Пэн. 2023. Действительно ли модели учатся следовать инструкциям? Эмпирическое исследование настройки инструкций . ACL. Бумага
[96] Чантин Чжоу, Пэнфэй Лю, Пусинь Сюй, Срини Айер, Цзяо Сунь, Юнин Мао, Сюэчэ Ма, Авиа Эфрат, Пин Ю и Л. Ю, Сьюзан Чжан, Гарги Гош, Майк Льюис, Люк Зеттлмойер и Омер Леви. 2023а. ЛИМА: Для согласования лучше меньше, да лучше . НейрИПС 2023. Бумага
[97] Линь, Билл Ючен и Равичандер, Абхилаша и Лу, Симинг и Дзири, Нуха и Склар, Мелани и Чанду, Кьяти и Бхагаватула, Чандра и Чой, Еджин. 2023а. Заклинание разблокировки базовых знаний: переосмысление мировоззрения посредством контекстного обучения . ICLR 2024. Бумага
Если у вас есть какие-либо вопросы или предложения, пожалуйста, создайте проблему или отправьте электронное письмо по адресу [email protected]
.