Кураторская коллекция статей и ресурсов о том, как раскрыть способности к рассуждению у студентов LLM и MLLM.
Также ознакомьтесь с Awesome-Controllable-Diffusion .
Внимание руководителей больших языковых моделей: обзор. [код]
Цзыфань Чжэн, Ечжаохуэй Ван, Юйсинь Хуан, Шичао Сун, Бо Тан, Фейю Сюн, Чжию Ли. Препринт'24
Внутренняя согласованность и самообратная связь в больших языковых моделях: обзор. [код]
Сюнь Лян, Шичао Сун, Цзыфань Чжэн, Ханьюй Ван, Цинчэнь Юй, Сюнькай Ли, Жун-Хуа Ли, Фейю Сюн, Чжию Ли. Препринт'24
Решение головоломок с использованием рассуждений на больших языковых моделях: опрос. [код]
Панайотис Гиадикиароглу, Мария Лимперайу, Гиоргос Филандрианос, Гиоргос Стаму. Препринт'24
Большие языковые модели для математических рассуждений: достижения и проблемы.
Дженис Ан, Ришу Верма, Рензе Лу, Ди Лю, Руй Чжан, Вэньпэн Инь. ACL'24
На пути к рассуждению в больших языковых моделях: обзор. [код]
Цзе Хуан, Кевин Чен-Чуан Чанг. Выводы ACL'23
Рассуждение с использованием языковой модели: опрос. [код]
Шуофэй Цяо, Исинь Оу, Нингю Чжан, Сян Чен, Юньчжи Яо, Шумин Дэн, Чуаньци Тан, Фэй Хуан, Хуацзюнь Чен. ACL'23
↑ Наверх ↑
От Medprompt до o1: исследование стратегий выполнения медицинских задач и не только.
Харша Нори, Наото Усуяма, Николас Кинг, Скотт Майер МакКинни, Ксавьер Фернандес, Шэн Чжан, Эрик Хорвиц. Препринт'24
В ЦТ или не в ЦТ? Цепочка мыслей помогает в основном в математических и символических рассуждениях.
Зейн Спрэг, Фангконг Инь, Хуан Диего Родригес, Дунвэй Цзян, Манья Вадхва, Прасанн Сингхал, Синью Чжао, Си Йе, Кайл Маховальд, Грег Дарретт. Препринт'24
Могут ли LLM генерировать новые исследовательские идеи? Масштабное исследование на людях с участием более 100 исследователей НЛП.
Ченглей Си, Дийи Ян, Тацунори Хашимото. Препринт'24
Взгляд на предвзятость токенов: большие языковые модели еще не являются подлинными рассуждениями. [код]
Боуэн Цзян, Янсиньюй Се, Чжуоцюнь Хао, Сяомэн Ван, Танви Маллик, Вейцзе Дж. Су, Камилло Дж. Тейлор, Дэн Рот. ЭМНЛП'24
Глава итерации: механистическое исследование цепочки мыслей
Вивьен Кабанн, Шарль Арналь, Вассим Буазиз, Алиса Янг, Франсуа Чартон, Джулия Кемпе. НейрИПС'24
Выполняют ли модели большого языка скрытое многошаговое рассуждение?
Сохи Янг, Елена Грибовская, Нора Касснер, Мор Гева, Себастьян Ридель. ACL'24
Порядок посылок имеет значение при рассуждениях с использованием больших языковых моделей.
Синьюнь Чен, Райан А. Чи, Сюэчжи Ван, Денни Чжоу. ICML'24
Влияние длины шага рассуждения на модели большого языка.
Мингю Цзинь, Цинкай Ю, Дун Шу, Хайян Чжао, Вэньюэ Хуа, Янда Мэн, Юнфэн Чжан, Мэннань Ду. Выводы ACL'24
Большие языковые модели пока не могут самостоятельно корректировать рассуждения.
Цзе Хуан, Синьюнь Чен, Сваруп Мишра, Хуайсю Стивен Чжэн, Адамс Вэй Ю, Синьин Сун, Дэнни Чжоу. ICLR'24
На каком этапе обучения данные кода помогают в рассуждениях LLM?
Инвэй Ма, Юэ Лю, Юэ Ю, Юаньлян Чжан, Ю Цзян, Чанцзянь Ван, Шаньшань Ли. ICLR'24
Измерение достоверности в цепочке мыслей.
Тамера Лэнэм, Анна Чен, Анш Радхакришнан, Бенуа Штайнер, Карсон Денисон, Дэнни Эрнандес, Дастин Ли, Эсин Дурмус, Эван Хубингер, Джексон Кернион, Камиле Лукошюте, Карина Нгуен, Ньютон Ченг, Николас Джозеф, Николас Шифер, Оливер Рауш, Робин Ларсон , Сэм МакКэндлиш, Сандипан Кунду, Саурав Кадават, Шеннон Янг, Томас Хениган, Тимоти Максвелл, Тимоти Теллин-Лотон, Тристан Хьюм, Зак Хэтфилд-Доддс, Джаред Каплан, Ян Браунер, Сэмюэл Р. Боуман, Итан Перес. Препринт'23
Вера и судьба: пределы трансформеров по композиционности.
Нуха Дзири, Симинг Лу, Мелани Склар, Сян Лоррэйн Ли, Ливэй Цзян, Билл Ючен Линь, Питер Уэст, Чандра Бхагаватула, Ронан Ле Бра, Йена Д. Хван, Сумья Саньял, Шон Веллек, Сян Рен, Эллисон Эттингер, Заид Харшауи, Еджин Чой. НейрИПС'23
Языковые модели не всегда говорят то, что думают: неверные объяснения в цепочке мыслей. [код]
Майлз Терпин, Джулиан Майкл, Итан Перес, Сэмюэл Р. Боуман. НейрИПС'23
Многозадачная, многоязычная и мультимодальная оценка ChatGPT на рассуждение, галлюцинации и интерактивность.
Еджин Банг, Самуэль Кахьявиджая, Наён Ли, Вэньлян Дай, Дэн Су, Брайан Вили, Холи Ловения, Цзивэй Цзи, Течжэн Ю, Вилли Чунг, Кует В. До, Ян Сюй, Паскаль Фунг. AACL'23
Большие языковые модели могут быть легко отвлечены ненужным контекстом.
Фреда Ши, Синьюнь Чен, Канишка Мисра, Натан Скейлс, Дэвид Дохан, Эд Чи, Натаниэль Шерли, Денни Чжоу. ICML'23
Поразмыслив, давайте не будем думать шаг за шагом! Предвзятость и токсичность в рассуждениях с нулевым выстрелом.
Омар Шейх, Хунсинь Чжан, Уильям Хелд, Майкл Бернштейн, Дийи Ян. ACL'23
На пути к пониманию подсказок по цепочке мыслей: эмпирическое исследование того, что имеет значение. [код]
Боши Ван, Севон Мин, Сян Дэн, Цзямин Шен, Ю Ву, Люк Зеттлмойер, Хуан Сун. ACL'23
Сложные задачи BIG Bench и может ли их решить цепочка мыслей. [код]
Мирак Сузгун, Натан Скейлс, Натанаэль Шерли, Себастьян Германн, И Тай, Хён Вон Чунг, Ааканша Чоудхери, Куок В. Ле, Эд Х. Чи, Денни Чжоу, Джейсон Вэй. Выводы ACL'23
Новые возможности больших языковых моделей. [блог]
Джейсон Вей, Йи Тай, Риши Боммасани, Колин Раффель, Баррет Зоф, Себастьян Боржо, Дэни Йогатама, Маартен Босма, Денни Чжоу, Дональд Мецлер, Эд Х. Чи, Тацунори Хасимото, Ориол Виньялс, Перси Лян, Джефф Дин, Уильям Федус. ТМЛР'22
Могут ли языковые модели учиться на объяснениях в контексте?
Эндрю К. Лампинен, Ишита Дасгупта, Стефани Сай Чан, Кори Мэтьюсон, Майкл Генри Тесслер, Антония Кресвелл, Джеймс Л. Макклелланд, Джейн X. Ванг, Феликс Хилл. ЭМНЛП'22
↑ Наверх ↑
Обучение языковых моделей самокоррекции посредством обучения с подкреплением.
Авирал Кумар, Винсент Чжуанг, Ришаб Агарвал, Йи Су, Джей Ди Ко-Рейес, Ави Сингх, Кейт Баумли, Шарик Икбал, Колтон Бишоп, Ребекка Рулофс, Лей М. Чжан, Кей МакКинни, Диша Шривастава, Космин Падурару, Джордж Такер, Дойна Precup, Ферьял Бехбахани, Александра Фауст. Препринт'24
ОпенАИ о1.
Открытая команда ИИ. Технический отчет'24
Агент Q: Расширенное мышление и обучение для автономных агентов ИИ.
Пранав Путта, Эдмунд Миллс, Наман Гарг, Сумит Мотвани, Челси Финн, Дивьянш Гарг, Рафаэль Рафаилов. Препринт'24
DotaMath: декомпозиция мысли с помощью кода и самокоррекция математических рассуждений. [код]
Чэнпэн Ли, Гуантин Донг, Минфэн Сюэ, Ру Пэн, Сян Ван, Дайихэн Лю. Препринт'24
LLM-ARC: улучшение LLM с помощью автоматизированного критика рассуждений.
Адитья Калянпур, Кайлаш Сараванакумар, Виктор Баррес, Дженнифер Чу-Кэрролл, Дэвид Мелвилл, Дэвид Ферруччи. Препринт'24
Вопрос*: Улучшение многоэтапного рассуждения для студентов LLM с помощью совещательного планирования.
Чаоцзе Ван, Яньчен Дэн, Чжии Лв, Шуйчэн Янь, Ань Бо. Препринт'24
Буфер мыслей: мышление, дополненное большими языковыми моделями. [код]
Лин Ян, Чжаочэнь Юй, Тяньцзюнь Чжан, Шии Цао, Минкай Сюй, Вэньтао Чжан, Джозеф Э. Гонсалес, Бин Цуй. Препринт'24
На пути к самосовершенствованию LLM через воображение, поиск и критику.
Е Тянь, Баолинь Пэн, Линьфэн Сун, Лифэн Цзинь, Дянь Юй, Хайтао Ми, Дун Юй. Препринт'24
Самостоятельная игра в состязательную языковую игру улучшает мышление LLM.
Пэнъюй Чэн, Тяньхао Ху, Хань Сюй, Чжисонг Чжан, Юн Дай, Лэй Хань, Нань Ду. Препринт'24
Оценка математических рассуждений за пределами точности.
Шицзе Ся, Сюэфэн Ли, Исинь Лю, Туншуан Ву, Пэнфэй Лю. Препринт'24
Продвижение универсальных рассуждений LLM с помощью деревьев предпочтений.
Лифан Юань, Ганьцюй Цуй, Ханьбинь Ван, Нин Дин, Синъяо Ван, Цзя Дэн, Боцзи Шань, Хуйминь Чен, Жубин Се, Янкай Линь, Чжэнхао Лю, Боуэн Чжоу, Хао Пэн, Чжиюань Лю, Маосун Сунь. Препринт'24
LLM3: Планирование задач и движений на основе большой языковой модели с обоснованием сбоев при движении. [код]
Шу Ван, Мужжи Хан, Цзыюань Цзяо, Цзэю Чжан, Ин Нянь Ву, Сун-Чунь Чжу, Хансинь Лю. ИРОС'24
Quiet-STaR: языковые модели могут научить себя думать, прежде чем говорить.
Эрик Зеликман, Жорж Харик, Ицзя Шао, Варуна Джаясири, Ник Хабер, Ноа Д. Гудман. Препринт'24
GLoRe: когда, где и как улучшить рассуждения LLM посредством глобальных и локальных уточнений.
Алекс Хаврилла, Шарат Рапарти, Христофорус Налмпантис, Джейн Двиведи-Ю, Максим Журавинский, Эрик Хамбро, Роберта Райлно. ICML'24
Цепочка мыслей без подсказок.
Сюэчжи Ван, Дэнни Чжоу. Препринт'24
V-STaR: Обучение верификаторов для рассуждений-самоучек.
Ариан Хоссейни, Синди Юань, Николай Малкин, Аарон Курвиль, Алессандро Сордони, Ришаб Агарвал. Препринт'24
InternLM-Math: открытые математические модели большого языка для проверяемых рассуждений.
Хуайюань Ин, Шуо Чжан, Линьян Ли, Чжэцзянь Чжоу, Юньфань Шао, Чжаое Фэй, Ичуань Ма, Цзявэй Хун, Куйкунь Лю, Цзыи Ван, Юдун Ван, Цзыцзянь Ву, Шуайбинь Ли, Фэнчжэ Чжоу, Хунвэй Лю, Сунян Чжан, Вэньвэй Чжан , Ханг Янь, Сипэн Цю, Цзяюй Ван, Кай Чен, Дахуа Линь. Препринт'24
Самопознание: большие языковые модели самостоятельно создают структуры рассуждений.
Пей Чжоу, Джей Пуджара, Сян Жэнь, Синьюнь Чен, Хэн-Цзе Ченг, Куок В. Ле, Эд Х. Чи, Денни Чжоу, Сваруп Мишра, Хуайсю Стивен Чжэн. Препринт'24
DeepSeekMath: расширение границ математических рассуждений в моделях открытого языка.
Чжихун Шао, Пейи Ван, Цихао Чжу, Жуньсинь Сюй, Цзюньсяо Сун, Сяо Би, Хаовэй Чжан, Минчуань Чжан, Ю.К. Ли, Ю. Ву, Дая Го. Препринт'24
Рассуждения K-уровня с использованием больших языковых моделей.
Ядун Чжан, Шаогуан Мао, Тао Гэ, Сюнь Ван, Ян Ся, Мань Лань, Фуру Вэй. Препринт'24
Эффективное использование инструментов с помощью цепочки абстракций.
Силин Гао, Джейн Двиведи-Ю, Пин Ю, Сяоцин Эллен Тан, Рамакант Пасунуру, Ольга Головнева, Кустув Синха, Асли Челикилмаз, Антуан Босселют, Тианлу Ван. Препринт'24
Преподавание языковых моделей для самосовершенствования посредством интерактивных демонстраций.
Сяо Юй, Баолинь Пэн, Мишель Галлей, Цзяньфэн Гао, Чжоу Юй. НААКЛ'24
Улучшение цепочки мыслей с нулевым выстрелом в больших языковых моделях с помощью логики. [код]
Сюйфэн Чжао, Мэнди Ли, Вэньхао Лу, Корнелиус Вебер, Джэ Хи Ли, Кун Чу, Стефан Вермтер. КОЛИНГ'24
Цепочка проверок уменьшает галлюцинации в больших языковых моделях.
Шехзаад Дулиавала, Моджтаба Комейли, Цзин Сюй, Роберта Райляну, Сиань Ли, Асли Челикьилмаз, Джейсон Уэстон. Выводы ACL'24
Скелет мысли: большие языковые модели могут выполнять параллельное декодирование.
Сюэфэй Нин, Цзинань Линь, Цзысюань Чжоу, Хуачжун Ян, Юй Ван. ICLR'24
Декомпозиция вопросов повышает достоверность рассуждений, основанных на модели. [код]
Анш Радхакришнан, Карина Нгуен, Анна Чен, Кэрол Чен, Карсон Денисон, Дэнни Эрнандес, Эсин Дурмус, Эван Хубингер, Джексон Кернион, Камиле Лукошюте, Ньютон Ченг, Николас Джозеф, Николас Шифер, Оливер Рауш, Сэм МакКэндлиш, Шир Эль Шок, Тамера Лэнэм, Тим Максвелл, Венкатеса Чандрасекаран, Зак Хэтфилд-Доддс, Джаред Каплан, Ян Браунер, Сэмюэл Р. Боуман, Итан Перес. Препринт'23
Давайте проверим шаг за шагом.
Хантер Лайтман, Винит Косараджу, Юра Бурда, Харри Эдвардс, Боуэн Бэйкер, Тедди Ли, Ян Лейке, Джон Шульман, Илья Суцкевер, Карл Коббе. ICLR'24
REFINER: Обратная связь по рассуждениям о промежуточных представлениях. [проект] [код]
Дебжит Поль, Мете Исмаилзаде, Максим Пейрар, Беатрис Борхес, Антуан Босселют, Роберт Уэст, Бой Фалтингс. EACL'24
Активные подсказки с цепочкой мыслей для больших языковых моделей. [код]
Шичэ Дяо, Пэнчэн Ван, Юн Линь, Тонг Чжан. ACL'24
Языковые модели как индуктивные рассуждения.
Цзунлинь Ян, Ли Донг, Синья Ду, Хао Чэн, Эрик Камбрия, Сяодун Лю, Цзяньфэн Гао, Фуру Вэй. EACL'24
Усиление рассуждений LLM: расширяйте границы кратковременного обучения с помощью усиленного контекстного сокращения.
Сицзе Хуан, Ли Лина Чжан, Гуан-Тин Чэн, Мао Ян. Препринт'23
Logic-LM: расширение возможностей больших языковых моделей с помощью символьных решателей для достоверных логических рассуждений. [код]
Лянмин Пан, Алон Албалак, Синьи Ван, Уильям Ян Ван. Выводы EMNLP'23
Рекурсия мышления: подход «разделяй и властвуй» к многоконтекстному рассуждению с использованием языковых моделей. [код] [плакат]
Сучхан Ли, Гунхи Ким. Выводы ACL'23
Рассуждение с помощью языковой модели — это планирование с помощью модели мира.
Шибо Хао, И Гу, Хаоди Ма, Джошуа Цзяхуа Хун, Чжэнь Ван, Дэйзи Чжэ Ван, Чжитин Ху. ЭМНЛП'23
Рассуждение о неявных чувствах с помощью цепочки мыслей. [код]
Хао Фей, Бобо Ли, Цянь Лю, Лидонг Бин, Фэй Ли, Тат-Сенг Чуа. ACL'23
Дерево мыслей: преднамеренное решение проблем с помощью больших языковых моделей. [код]
Шунюй Яо, Дянь Ю, Джеффри Чжао, Ицхак Шафран, Томас Л. Гриффитс, Юань Цао, Картик Нарасимхан. НейрИПС'23
SatLM: языковые модели, обеспечивающие выполнимость, с использованием декларативных подсказок. [код]
Си Е, Цяочу Чен, Исил Диллиг, Грег Дарретт. НейрИПС'23
ИСКУССТВО: Автоматическое многоэтапное рассуждение и использование инструментов для больших языковых моделей.
Бхаргави Паранджапе, Скотт Лундберг, Самир Сингх, Ханнане Хаджиширзи, Люк Зеттлмойер, Марко Тулио Рибейро. Препринт'23
Автоматическое оперативное дополнение и выбор с помощью цепочки мыслей из помеченных данных. [код]
КаШун Шум, Шичжэ Дяо, Тонг Чжан. Выводы EMNLP'23
Синтетические подсказки: создание демонстраций цепочки мыслей для больших языковых моделей.
Чжихун Шао, Еюнь Гун, Йелун Шен, Минли Хуан, Нань Дуань, Вэйчжу Чен. ICML'23
Верное рассуждение по цепочке мыслей.
Цин Лю, Шрея Хавалдар, Адам Стайн, Ли Чжан, Делип Рао, Эрик Вонг, Марианна Апидианаки, Крис Каллисон-Бёрч. IJCNLP-AACL'23
Переосмысление с поиском: достоверный вывод модели большого языка.
Ханфэн Хэ, Хунмин Чжан, Дэн Рот. Препринт'23
ЛАМБАДА: обратная цепочка для автоматического рассуждения на естественном языке.
Сейед Мехран Каземи, Надджунг Ким, Дипти Бхатия, Синь Сюй, Дипак Рамачандран. ACL'23
Чередование поиска с помощью цепочки мыслей для трудоемких многоэтапных вопросов. [код]
Харш Триведи, Ниранджан Баласубраманян, Тушар Хот, Ашиш Сабхарвал. ACL'23
Большие языковые модели — это рассуждения с самопроверкой. [код]
Исюань Вэн, Миньцзюнь Чжу, Шичжу Хэ, Кан Лю, Цзюнь Чжао. Выводы EMNLP'23
Могут ли языковые модели, дополненные ретривером, рассуждать? Игра в вину между ретривером и языковой моделью. [код]
Паришад Бехнам Гадер, Сантьяго Мирет, Шива Редди. Выводы EMNLP'23
Дополнительные пояснения для эффективного контекстного обучения.
Си Йе, Шринивасан Айер, Асли Челикьилмаз, Вес Стоянов, Грег Дарретт, Рамакант Пасунуру. Выводы ACL'23
Программа подсказки мыслей: отделение вычислений от рассуждений для задач численного рассуждения. [код]
Вэньху Чен, Сюэгуан Ма, Синьи Ван, Уильям В. Коэн. ТМЛР'23
Неконтролируемая генерация объяснений посредством правильных экземпляров.
Сидзе Чэн, Чжиюн Ву, Цзянцзе Чен, Чжисин Ли, Ян Лю, Линпэн Конг. АААИ'23
PAL: Программно-управляемые языковые модели. [проект] [код]
Лую Гао, Аман Мадаан, Шуян Чжоу, Ури Алон, Пэнфэй Лю, Имин Ян, Джейми Каллан, Грэм Нойбиг. ICML'23
Решение математических словесных задач с помощью языковых моделей, основанных на совместном рассуждении. [код]
Синьюй Чжу, Цзюньцзе Ван, Линь Чжан, Юйсян Чжан, Жуйи Ган, Цзясин Чжан, Юйцзю Ян. ACL'23
Большие языковые модели могут самосовершенствоваться.
Цзясинь Хуан, Шисян Шейн Гу, Ле Хоу, Юэсинь Ву, Сюэчжи Ван, Хункун Юй, Цзявэй Хан. ЭМНЛП'23
Mind's Eye: Обоснованная языковая модель рассуждений посредством моделирования.
Лю Жуйбо, Джейсон Вэй, Шисян Шейн Гу, Те-Йен Ву, Соруш Восуги, Клэр Цуй, Денни Чжоу, Эндрю М. Дай. ICLR'23
Автоматическая цепочка мыслей в моделях большого языка. [код]
Чжуошэн Чжан, Астон Чжан, Му Ли, Алекс Смола. ICLR'23
Языковые модели — это многоязычные логические рассуждения.
Фреда Ши, Мирак Сузгун, Маркус Фрейтаг, Сюэчжи Ван, Сурадж Сриватс, Соруш Восуги, Хён Вон Чунг, Йи Тай, Себастьян Рудер, Денни Чжоу, Дипанджан Дас, Джейсон Вэй. ICLR'23
Спросите меня что угодно: простая стратегия для подсказки языковых моделей. [код]
Симран Арора, Аваника Нараян, Мэйи Ф. Чен, Лорел Орр, Нил Гуха, Куш Бхатия, Инес Чами, Фредерик Сала, Кристофер Ре. ICLR'23
Динамическое быстрое обучение с помощью градиента политики для полуструктурированных математических рассуждений. [проект] [код]
Пан Лу, Лян Цю, Кай-Вэй Чанг, Ин Нянь Ву, Сон-Чун Чжу, Танмай Раджпурохит, Питер Кларк, Ашвин Кальян. ICLR'23
Создание больших языковых моделей, более эффективных рассуждений с помощью пошагового верификатора.
Ифэй Ли, Цзэци Линь, Шичжуо Чжан, Цян Фу, Бэй Чен, Цзянь-Гуан Лу, Вэйчжу Чен. ACL'23
Подсказки от наименьшего к наибольшему позволяют проводить сложные рассуждения в больших языковых моделях.
Денни Чжоу, Натаниэль Шерли, Ле Хоу, Джейсон Вэй, Нэйтан Скейлс, Сюэчжи Ван, Дэйл Шуурманс, Клэр Кюи, Оливье Буске, Куок Ле, Эд Чи. ICLR'23
Самосогласованность улучшает цепочку рассуждений в языковых моделях.
Сюэчжи Ван, Джейсон Вэй, Дэйл Шуурманс, Куок Ле, Эд Чи, Шаран Наранг, Ааканша Чоудери, Денни Чжоу. ICLR'23
Расширение поиска для рассуждений здравого смысла: унифицированный подход. [код]
Вэньхао Ю, Чэньгуан Чжу, Чжихан Чжан, Шуохан Ван, Чжуошэн Чжан, Ювэй Фан, Мэн Цзян. ЭМНЛП'22
Языковые модели кода малоэффективны для изучения здравого смысла. [код]
Аман Мадаан, Шуян Чжоу, Ури Алон, Имин Ян, Грэм Нойбиг. ЭМНЛП'22
Решение задач количественного рассуждения с помощью языковых моделей. [блог]
Айтор Левкович, Андерс Андреассен, Дэвид Дохан, Итан Дайер, Хенрик Михалевски, Винай Рамашеш, Эмброуз Слоун, Джем Анил, Иманол Шлаг, Тео Гутман-Соло, Юхуай Ву, Бехнам Нейшабур, Гай Гур-Ари, Ведант Мисра. НейрИПС'22
Большие языковые модели все еще не могут планироваться. [код]
Картик Валмикам, Альберто Олмо, Сарат Сридхаран, Суббарао Камбхампати. НейрИПС'22
Большие языковые модели — это рассуждения с нулевым выстрелом.
Такеши Кодзима, Шисян Шейн Гу, Машел Рид, Ютака Мацуо, Юсуке Ивасава. НейрИПС'22
Итеративно подсказываемые предварительно обученные языковые модели для цепочки мыслей. [код]
Боши Ван, Сян Дэн, Хуан Сунь. ЭМНЛП'22
Цепочка мыслительных подсказок вызывает рассуждения в больших языковых моделях. [блог]
Джейсон Вэй, Сюэчжи Ван, Дэйл Шуурманс, Маартен Босма, Брайан Ичтер, Фей Ся, Эд Чи, Куок Ле, Денни Чжоу. НейрИПС'22
↑ Наверх ↑
MathScale: настройка инструкций масштабирования для математических рассуждений.
Чжэнъян Тан, Синсин Чжан, Бенью Ван, Фуру Вэй. Препринт'24
Изучение дедуктивного рассуждения на основе синтетического корпуса на основе формальной логики. [код]
Теруфуми Моришита, Гаку Морио, Ацуки Ямагути, Ясухиро Согава. ICML'23
Символическая дистилляция цепочки мыслей: маленькие модели также могут «думать» шаг за шагом. [код]
Люнянь Гарольд Ли, Джек Хессель, Ёнджэ Ю, Сян Рен, Кай-Вей Чанг, Еджин Чхве. ACL'23
Специализация малых языковых моделей для многоэтапного рассуждения.
Яо Фу, Хао Пэн, Литу Оу, Ашиш Сабхарвал, Тушар Хот. ICML'23
Большие языковые модели — учителя рассуждения. [код]
Намгю Хо, Лаура Шмид, Се Ён Юн. ACL'23
Обучение моделям малого языка рассудку.
Люси Шарлотта Магистер, Джонатан Мэллинсон, Якуб Адамек, Эрик Мальми, Алексей Северин. ACL'23 Короткий
Преобразование возможностей многоэтапного рассуждения больших языковых моделей в более мелкие модели посредством семантической декомпозиции.
Кумар Шридхар, Алессандро Столфо, Мринмая Сачан. Выводы ACL'23
Масштабирование языковых моделей с точной настройкой инструкций.
Хён Вон Чунг, Ле Хоу, Шейн Лонгпре, Баррет Зоф, И Тай, Уильям Федус, Эрик Ли, Сюэчжи Ван, Мостафа Дегани, Сиддхартха Брахма, Альберт Уэбсон, Шисян Шейн Гу, Чжуюн Дай, Мирак Сузгун, Синьюнь Чен, Ааканша Чоудхери, Шаран Наранг, Гаурав Мишра, Адамс Ю, Винсент Чжао, Яньпин Хуан, Эндрю Дай, Хункун Ю, Слав Петров, Эд Х. Чи, Джефф Дин, Джейкоб Девлин, Адам Робертс, Денни Чжоу, Куок В. Ле, Джейсон Вэй. JMLR'22
↑ Наверх ↑
Визуальный блокнот: эскизы как визуальная цепочка мыслей для мультимодальных языковых моделей. [проект] [код]
Юши Ху, Вэйцзя Ши, Синюй Фу, Дэн Рот, Мари Остендорф, Люк Зеттлмойер, Ной А. Смит, Ранджай Кришна. Препринт'24
Рассуждение на основе диаграмм: перенос возможностей из LLM в VLM.
Виктор Карбюн, Хасан Мансур, Фангю Лю, Рахул Араликатте, Жиль Бэхлер, Джиндонг Чен, Абханшу Шарма. Выводы NAACL'24
SpatialVLM: наделение моделей языка видения возможностями пространственного мышления. [проект]
Боюань Чен, Чжо Сюй, Шон Кирмани, Брайан Ичтер, Дэнни Дрисс, Пит Флоренс, Дорса Садиг, Леонидас Гибас, Фэй Ся. ЦВПР'24
Цепочка таблиц: развитие таблиц в цепочке рассуждений для понимания таблиц.
Зилонг Ван, Хао Чжан, Чун-Лян Ли, Джулиан Мартин Айзеншлос, Винсент Перо, Зифэн Ван, Лесли Микуличич, Ясухиса Фуджи, Цзинбо Шан, Чэнь-Ю Ли, Томас Пфистер. ICLR'24
Ссылочно-контекстное обучение для мультимодальных программ LLM. [код]
Ян Тай, Вейчен Фань, Чжао Чжан, Фэн Чжу, Руй Чжао, Цзивэй Лю. ЦВПР'24
Близнецы в рассуждениях: раскрытие здравого смысла в мультимодальных моделях большого языка.
Юцин Ван, Юн Чжао. Препринт'23
G-LLaVA: Решение геометрических задач с помощью мультимодальной модели большого языка.
Цзяхуэй Гао, Ренджи Пи, Цзипэн Чжан, Цзячэн Е, Ванцзюнь Чжун, Юфэй Ван, Ланьцин Хун, Цзяньхуа Хань, Хан Сюй, Чжэнго Ли, Линпэн Конг. Препринт'23
Хамелеон: композиционное рассуждение «подключи и работай» с большими языковыми моделями. [проект] [код]
Пан Лу, Баолинь Пэн, Хао Чэн, Мишель Галлей, Кай-Вэй Чанг, Ин Нянь Ву, Сун-Чун Чжу, Цзяньфэн Гао. НейрИПС'23
MM-REACT: побуждает ChatGPT к мультимодальному рассуждению и действию. [проект] [код] [демо]
Чжэнъюань Ян, Линьцзе Ли, Цзяньфэн Ван, Кевин Линь, Эхсан Азарнасаб, Фейсал Ахмед, Цзычэн Лю, Се Лю, Майкл Цзэн, Лицзюань Ван. Препринт'23
ViperGPT: визуальный вывод посредством выполнения Python для рассуждений. [проект] [код]
Дидак Сурис, Сачит Менон, Карл Вондрик. ICCV'23
Visual ChatGPT: обсуждение, рисование и редактирование с помощью моделей Visual Foundation. [код]
Чэньфэй Ву, Шэнмин Инь, Вэйчжэнь Ци, Сяодун Ван, Цзэчэн Тан, Нань Дуань. Препринт'23
Мультимодальное мышление в языковых моделях. [код]
Чжуошэн Чжан, Астон Чжан, Му Ли, Хай Чжао, Джордж Карипис, Алекс Смола. Препринт'23
Визуальное программирование: композиционное визуальное мышление без тренировки. [проект] [код]
Танмай Гупта, Анируддха Кембхави. КПВР'23
Сократовские модели: составление нулевых мультимодальных рассуждений с помощью языка. [проект] [код]
Энди Зенг, Мария Аттариан, Брайан Ихтер, Кшиштоф Хоромански, Адриан Вонг, Стефан Велькер, Федерико Томбари, Авик Пурохит, Майкл Рю, Викас Синдхвани, Джонни Ли, Винсент Ванхук, Пит Флоренс. ICLR'23
↑ Наверх ↑
↑ Наверх ↑
↑ Наверх ↑
/abs/
если это публикация arXiv).Не волнуйтесь, если вы сделаете что-то не так, это будет исправлено за вас!