Этот склад предназначен для сбора последних результатов исследований ICLR, особенно в области LLM, охватывающих все направления в области НЛП. Этот проект будет время от времени обновляться в течение длительного времени.
Добро пожаловать на просмотр и развилку! Но лучше было бы поставить звезду❤️.
Адрес Чжиху: Шуйини
Публичная учетная запись WeChat: AINLPer ( обновляется ежедневно, добро пожаловать на подписку )
1. Активизация мышления: решение проблем методом проб и ошибок с использованием больших языковых моделей
2. TabR: табличное глубокое обучение встречает ближайших соседей
3. Генеративный судья для оценки выравнивания
4. Что делает данные хорошими для согласования? Комплексное исследование автоматического выбора данных при настройке инструкций?
5. Адаптация во время тестирования против мультимодальной систематической ошибки надежности
6. Оптимальное выпрямление шага Беллмана в моделях согласования потоков.
7. Об обучаемости водяных знаков для языковых моделей
8. Повышение производительности хвоста в экстремальных классификаторах за счет уменьшения дисперсии меток
9. Это то подпространство, которое вы ищете? Иллюзия интерпретации для исправлений активации подпространства?
10. Многоязычные проблемы джейлбрейка в больших языковых моделях
11. Переосмысление возможностей канонизации графов в устойчивом обучении представлению графов.
12. AnomalyCLIP: объектно-независимое быстрое обучение для обнаружения аномалий с нулевым выстрелом
13. На пути к правдивым объяснениям: повышение рационализации с помощью открытия ярлыков
14. CORN: контактное представление объектов для беспрепятственного манипулирования невидимыми объектами.
15. TESTAM: модель пространственно-временного внимания с улучшенным временем и смесью экспертов.
16. Сети анализа графов.
17. KoLA: Тщательный анализ мировых знаний о больших языковых моделях
18. LUM-ViT: Обучаемый преобразователь зрения с маской недостаточной выборки для сбора оптических сигналов с ограниченной полосой пропускания.
19. Социальная трансформация: быстрое предсказание траектории движения человека.
20. Надежная классификация с помощью регрессии для обучения с зашумленными метками
21. Разделение передачи сообщений для обнаружения мошенничества с графом
22. Противоречивые галлюцинации больших языковых моделей: оценка, обнаружение и смягчение последствий.
23. Контекстный автоэнкодер для сжатия контекста в большой языковой модели.
24. DDMI: независимые от предметной области модели скрытой диффузии для синтеза высококачественных неявных нейронных представлений.
25. Переосмысление зависимости от канала для многомерного прогнозирования временных рядов: изучение опережающих индикаторов
26. Смягчение галлюцинаций в больших мультимодальных моделях посредством надежной настройки инструкций.
27. RingAttention с блочными преобразователями для почти бесконечного контекста
28. «Цепочка ретроспективного взгляда» объединяет языковые модели с обратной связью
29. Диагностические трансформаторы: освещение пространств признаков для принятия клинических решений.
30. Решение проблемы потери пластичности и катастрофического забывания в непрерывном обучении
31. RepoBench: сравнение систем автодополнения кода на уровне репозитория.
32. Поиск нейронных самородков: передача знаний в больших языковых моделях с параметрической точки зрения.
33. Использование объяснений: интерпретатор LLM-LM для расширенного обучения представлению графов с атрибутами текста.
34. Контекстное обучение через байесовскую призму
35. Нейронно-спектральные методы: самоконтролируемое обучение в спектральной области.
36. SuRe: суммирование результатов поиска с использованием кандидатов на ответ для обеспечения качества в открытом домене LLM.
37. «Космос-Г»: генерация изображений в контексте с помощью мультимодальных моделей большого языка.
38. Цепочка знаний: обоснование больших языковых моделей посредством динамической адаптации знаний на основе гетерогенных источников.
39. LitCab: облегченная калибровка языковой модели по коротким и длинным ответам.
40. Автоматизированная оценка модели на основе энергии
41. SKILL-MIX: гибкое и расширяемое семейство оценок для моделей ИИ.
42. ArchLock: блокировка переносимости DNN на уровне архитектуры с помощью двоичного предсказателя с нулевой стоимостью.
43. Отладка данных с важностью Шепли в конвейерах машинного обучения
44. RECOMP: улучшение LM с расширенным поиском за счет сжатия контекста и выборочного расширения.
45. Gen-Z: генеративная классификация текста с нулевым фрагментом с контекстуализированными описаниями меток.
46. Дихотомия неявных предубеждений ранней и поздней фазы может, доказуемо, вызывать гроккинг.
47. PromptAgent: стратегическое планирование с использованием языковых моделей обеспечивает оптимизацию подсказок на экспертном уровне.
48. Предвзятость укоренилась глубоко: неявные рассуждения в LLM, присваиваемых персонам.
49. Раздвигая границы: влияние Mixup на нейронный коллапс
50. Преобразователи графов в EHR: лучшее представление повышает производительность нисходящего потока
51. Классификация гиперспектральных изображений с учетом неопределенности на основе графов
52. О масштабируемости и эффективности памяти полуопределенных программ для оценки констант Липшица нейронных сетей.
53. Являются ли семьи Бертов хорошими последователями обучения? Исследование их потенциала и ограничений?
54. UNR-Explainer: контрфактические объяснения моделей обучения неконтролируемому представлению узлов.
55. Изучение перспектив и ограничений периодического обучения в реальном времени.
56. Нейросимволическая рекурсивная машина систематического обобщения.
57. Дэвидсоновский граф сцены: повышение надежности при детальной оценке преобразования текста в изображение.
58. Предвзяты ли модели к тексту без гендерного языка?
59. PlaSma: модели процедурных знаний для языкового планирования и перепланирования.
60. На пути к фундаментальным моделям молекулярного обучения крупномасштабных многозадачных наборов данных.
61. Transformer-VQ: преобразователи линейного времени посредством векторного квантования.
62. Обучение диффузионных моделей с обучением с подкреплением
63. Эффективная модуляция для сетей машинного зрения
64. Предварительное обучение детекторов 3D-объектов на основе LiDAR посредством раскрашивания.
65. Эмулятор для точной настройки моделей большого языка с использованием моделей малого языка.
66. Детекторы языковых моделей легко оптимизируются
67. Роботизированное манипулирование с нулевым выстрелом с использованием предварительно обученных диффузионных моделей для редактирования изображений
68. GAFormer: улучшение преобразователей таймсерий посредством встраивания с поддержкой групп.
69. Правильно выполненный стохастический градиентный спуск для гауссовских процессов
70. Точная настройка языковых моделей с учетом фактов
71. Ядра CNN могут быть лучшими шейплетами
72. Демистификация отравляющих бэкдор-атак со статистической точки зрения
73. Упреждающее обучение графовых нейронных сетей.
74. Обуславливается ли эффективность обобщения CLIP главным образом высоким сходством поездных тестов?
75. Оптимизация групповых предпочтений: поэтапное выравнивание больших языковых моделей.
76. L2MAC: автоматический компьютер с большой языковой моделью для обширной генерации кода.
77. Лемма: модель открытого языка для математики.
78. Оптимизация политики на основе поиска по дереву при стохастической задержке выполнения
79. За пределами точности: оценка самосогласованности больших языковых моделей кода с помощью IdentityChain
80. Контекстно-зависимое метаобучение
81. Эффективность случайного забывания для надежного обобщения.
82. VCR-Graphormer: мини-пакетный преобразователь графов через виртуальные соединения.
83. Разложения по группам Ли для эквивариантных нейронных сетей.
84. DRSM: дерандомизированное сглаживание классификатора вредоносных программ, обеспечивающее сертифицированную надежность.
85. Гроку или не Гроку: распутывание обобщения и запоминания на поврежденных наборах алгоритмических данных
86. О вариативности обучения нейронной сети относительно тестовых наборов и распределений.
87. GNNBoundary: к объяснению графовых нейронных сетей через призму границ принятия решений.
88. На пути к идентифицируемому неконтролируемому переводу домена: подход к диверсифицированному распределению
89. SineNet: изучение временной динамики в зависящих от времени уравнениях в частных производных.
90. Могут ли большие языковые модели вывести причинно-следственную связь на основе корреляции?
91. Вариационный взгляд на решение обратных задач с помощью диффузионных моделей.
92. Послойная связность в линейном режиме
93. NEFTune: шумные встраивания улучшают точную настройку инструкций
94. Разреженный MoE с языковой маршрутизацией для многоязычного машинного перевода
95. РЕФАКТОР: учимся извлекать теоремы из доказательств.
96. Обнаружение данных предварительного обучения из больших языковых моделей.
97. Не доверяйте: проверяйте – обоснование количественного рассуждения LLM с помощью автоформализации
98. PubDef: защита от атак передачи из публичных моделей
99. AutomaTikZ: текстовый синтез научной векторной графики с TikZ
100.Можно ли обнаружить дезинформацию, созданную LLM?
101. Простой интерпретируемый преобразователь для детальной классификации и анализа изображений.
102. Распутывание представлений временных рядов посредством контрастной независимости от поддержки при l-вариационном выводе
103. Обучение распределительным предпочтениям: понимание и учет скрытого контекста в RLHF.
104. Эврика: дизайн вознаграждений на уровне человека посредством кодирования больших языковых моделей.
105. Прогнозирование трехмерных объектов для предварительной тренировки облака точек на основе маскированного автоэнкодера.
106. Понимание катастрофического забывания в языковых моделях посредством неявного вывода.
107. Обучение на основе пропорций этикеток: начальная подготовка учащихся под наблюдением посредством распространения убеждений
108. Что такое максимальная неструктурированная обрезка для максимального косинусного сходства?
109. Расширение возможностей маленьких учащихся-медиков с помощью контекстных подсказок, сохраняющих конфиденциальность
110. Vocos: сокращение разрыва между нейронными вокодерами во временной области и Фурье для высококачественного синтеза звука.
111. Задержки обучения в нейронных сетях с использованием расширенных сверток с обучаемыми интервалами.
112. Проклятие обратного: студенты, обучающиеся по принципу «А есть Б», не могут выучить «Б есть А».
113. AutoDAN: создание скрытых запросов на джейлбрейк на согласованных больших языковых моделях.
114. MixSATGEN: обучение смешиванию графов для генерации экземпляров SAT.
115. ПРОГРАММА: Обучение псевдометкам на основе модели PROtotype GRAph для адаптации во время тестирования.
116. Раскрытые секреты бэкдора: идентификация бэкдорных данных с оптимизированной согласованностью масштабированного прогнозирования.
117. Модели траектории согласованности: обучение вероятностному потоку ОДУ траектории диффузии
118. Глубокие SE(3)-эквивариантные геометрические рассуждения для задач точного размещения.
119. Слияние иерархических контекстов: лучшее понимание длительного контекста для предварительно обученных LLM
120. ViLMA: нулевой тест для лингвистического и временного обоснования в моделях видеоязыка.
121. Диффузия в диффузии: циклическая односторонняя диффузия для генерации текста, обусловленной зрением.
122. Ограничение ожидаемой устойчивости графовых нейронных сетей, подверженных атакам на функции узла
123. Модели оценок для автономного обучения с целеусловным подкреплением
124. USB-NeRF: развертывание полей нейронного излучения, скорректированных с помощью затворного узла.
125. За пределами имитации: использование детальных сигналов качества для согласования
126. Кодирование с прогнозированием контрастных различий
127. MCM: моделирование ячеек в маске для обнаружения аномалий в табличных данных.
128. HiGen: генеративные сети иерархических графов.
129. Побег заоблачной цены: ранняя остановка, самосогласованность для многоэтапного рассуждения.
130. PolyVoice: языковые модели для перевода речи в речь.
131. Сокращение карты состязательных функций для бэкдора
132. EmerDiff: Новые семантические знания на уровне пикселей в моделях диффузии.
133. CLEX: Экстраполяция непрерывной длины для больших языковых моделей.
134. FairSeg: крупномасштабный набор данных сегментации медицинских изображений для честного обучения с использованием модели сегментации чего угодно с справедливым масштабированием с привязкой к ошибкам.
135. InstructCV: модели диффузии текста в изображения, настроенные на основе инструкций, как универсальные модели видения.
136. Сохранение-обновление-пересмотр для устранения компромисса между обобщением и надежностью в состязательном обучении.
137. Можем ли мы оценить модели адаптации предметной области без меток целевой предметной области?
138. Маршрутизация задач шумоподавления для диффузионных моделей.
139. Частотно-зависимый преобразователь для обучения сжатию изображений.
140. Ансамбли моделей вознаграждения помогают снизить чрезмерную оптимизацию
141. Понимание устойчивости защиты с использованием случайных функций от состязательных атак на основе запросов.
142. GoLLIE: Рекомендации по аннотациям улучшают извлечение информации с нуля.
143. Всегда ли сгенерированные данные помогают контрастному обучению?
144. Безопасное автономное обучение с подкреплением с помощью модели диффузии, основанной на технико-экономическом обосновании.
145. Нулевой пузырь (почти) параллелизм трубопроводов
146. Исследование балансировки веса в задаче распознавания с длинным хвостом.
147. Композиционный консерватизм: трансдуктивный подход в автономном обучении с подкреплением.
148. Движение к лучшему: автономное обучение с подкреплением на основе предпочтений посредством генерации предпочтительной траектории.
149. ED-NeRF: эффективное редактирование 3D-сцены с текстовым сопровождением с использованием скрытого пространства NeRF.
150. Развитие синтеза изображений с наведением по позе с помощью моделей прогрессивной условной диффузии.
151. Итеративная декомпозиция на основе внимания для представления тензорного произведения
152. Прометей: создание возможностей детальной оценки в языковых моделях.
153. Оценка агентства языковой модели посредством переговоров
154. VersVideo: использование улучшенных моделей временной диффузии для универсальной генерации видео.
155. Управление моделями языка видения для многозадачного восстановления изображений
156. Некоторые фундаментальные аспекты липшицевой непрерывности нейронных сетей.
157. Еще один эталон отделения интенсивной терапии: гибкая многоцентровая структура для клинического ОД.
158. Использование совместных представлений с учетом дождя и деталей для устранения сложных дождей
159. AgentBench: оценка LLM как агентов.
160. Дифференциально частные синтетические данные через API базовой модели 1: изображения
161. Планировщик политик Plug-and-Play для агентов диалога на основе большой языковой модели.
162. Начальная загрузка вариационного поиска информации с помощью больших языковых и зрительных моделей для интерпретируемой классификации изображений.
163. Оценка больших языковых моделей при оценке следующей инструкции.
164. Бэкдор-контрастное обучение посредством двухуровневой оптимизации триггера.
165. MetaCoCo: новый эталон классификации с несколькими выборками и ложной корреляцией.
166. SafeDreamer: безопасное обучение с подкреплением с помощью мировых моделей.
167. Трансформаторы с петлей лучше обучаются алгоритмам обучения.
168. Сертифицированная состязательная устойчивость для нейронных сетей с пиковым кодированием скорости.
169. Притворяйся, пока не сделаешь: федеративное обучение с генерацией, ориентированной на консенсус.
170. Объяснение временных рядов с помощью контрастных и локально разреженных возмущений.
171. Динамическая настройка нейронного ответа.
172. Обоснованное объектно-ориентированное обучение
173. Об устойчивости выразительных позиционных кодировок графов.
174. SEINE: модель распространения короткого и длинного видео для генеративного перехода и прогнозирования.
175. Оптимизация вознаграждения с учетом уверенности для точной настройки моделей преобразования текста в изображение
176. Дьявол в нейронах: интерпретация и смягчение социальных предубеждений в языковых моделях.
177. Ансамблевая дистилляция для неконтролируемого анализа избирательного округа
178. Многокритериальная диффузионная модель без обучения для генерации трехмерных молекул.
179. Агрегатор флагов: масштабируемое распределенное обучение при отказах и увеличенных потерях с использованием выпуклой оптимизации.
180. Неотрицательное контрастное обучение.
181. Понимание обобщения предметной области: перспектива устойчивости к шуму.
182. Кластеризация изображений по текстовым критериям.
183. Разоблачение и повышение достоверности данных: исследование с наборами данных для обучения безвредным языковым моделям.
184. Понимание выразительности GNN в обучении правилам.
185. КОЛЛИ: Систематическое построение задач генерации ограниченного текста.
186. ГЕНОМ: генеративное нейросимволическое визуальное мышление путем выращивания и повторного использования модулей.
187. Исчезающие градиенты при точной настройке языковых моделей.
188. Гипердоказательное глубокое обучение для количественной оценки неопределенности сложной классификации.
189. Оценка регуляризованной оптимизации политики посредством диффузного поведения.
190. Генеративные модели узкого места концепции.
191. Усиление и улучшение поиска нейронной архитектуры без обучения
192. МАФФИН: создание многогранных инструкций для улучшения следования инструкциям.
193. Изучение абстракций обоснованного действия от языка.
194. BayesDiff: оценка попиксельной неопределенности в диффузии посредством байесовского вывода.
195. Сокращение $mathbb{D}^2$: передача сообщений для балансировки разнообразия и сложности сокращения данных
196. LQ-LoRA: низкоранговая плюс квантованная матричная декомпозиция для эффективной точной настройки языковой модели.
197. Скелет мысли: стимулирование LLM к эффективному параллельному генерированию
198. Глубокая временная кластеризация графов.
199. CoVLM: составление визуальных сущностей и отношений в больших языковых моделях посредством коммуникативного декодирования.
200. К созданию согласованного макета с помощью диффузионной модели с эстетическими ограничениями
201. Steve-Eye: Оснащение воплощенных агентов на основе LLM визуальным восприятием в открытых мирах.
202. WizardLM: расширение возможностей больших предварительно обученных языковых моделей для выполнения сложных инструкций.
203. CLIP-MUSED: семантическое декодирование многопредметной визуальной нейронной информации под управлением CLIP.
204. Обучение контрастным предпочтениям: обучение на основе человеческой обратной связи без подкрепления обучения.
205. CoT3DRef: цепочка мыслей, эффективное 3D-визуальное обоснование
206. Визуальное понимание типов данных не возникает в результате масштабирования моделей визуального языка.
207. Модели фонда с дистанционным зондированием, без аннотаций через наземное удаленное выравнивание
208. Обучение планированию абстракций с языка
209. на дороге по справедливости: надежная оптимизация для состязательного обезживания
210.
211. Строительство кооперативных воплощенных агентов модульно с большими языковыми моделями
212. Алгоритмы дерева решений быстрых гиперболоидов
213. Несколько выстрелов обнаружения машинного текста с использованием представлений стиля
214. Массовое редактирование для крупных языковых моделей с помощью мета -обучения
215. Дисредитация данных может быть похожа на водку: дистилляция больше раз для лучшего качества
216. Безопасная и надежная инъекция на водяном знаке с одним изображением OOD
217. Определение опыта: применение к оценке эффекта лечения
218. Облегчение смещения воздействия в диффузионных моделях за счет отбора проб с измененными временными шагами
219. Difftactile: дифференциальный симулятор на основе физики для манипуляции с богатым контактами, богатым контактом, роботизированные манипуляции
220. ТАНГЕНТНЫЕ ТРАНСПОРТИРОВАНИЕ ДЛЯ СООБЩЕНИЯ, Конфиденциальности и удаления
221. Оценка условного распределения Байеса для дистилляции знаний на основе условной взаимной информации
222. Универсальное руководство для диффузионных моделей
223. Чувствительность количественной оценки языковых моделей к ложным функциям в быстрого дизайна или: как я научился начинать беспокоиться о быстрой форматировании
224. Нейронный поток SDF для 3D реконструкции динамических сцен
225. Перефраза, увеличение, разум: визуальное обоснование вопросов для моделей языка зрения
226. Зоология: измерение и улучшение отзыва в эффективных языковых моделях
227. Динамическое разреженное обучение со структурированной разреженностью
228. На пути к обучению без ограничений глубины: нормализация партии без градиентного взрыва
229. Красная команда, управляемая любопытством, для больших языковых моделей
23.
231. Надежность детекторов AI-Image: фундаментальные ограничения и практические атаки
232. TIC-Clip: постоянное обучение моделей клипов
233. ограниченное декодирование для перекрестной проекции этикетки
234. Примально двойной подход к решению вариационных неравенств с общими ограничениями
235. Трансформеры Vision Channel: изображение стоит 1 x 16 x 16 слова
236. Ecoflap: эффективная обрезка грутной в плане.
237. Понимание атак реконструкции с помощью нервного касательного ядра и дистилляции наборов данных
238. Адаптирование к сдвигу распределения с помощью генерации визуальных доменов.
239. Minigpt-4: улучшение понимания зрений с помощью расширенных моделей крупных языков
240. Грокикинг как переход от ленивого к богатой динамике обучения
241. Переосмысление атак задних ходов на дистилляцию набора данных: перспектива метода ядра
242. Смесь слабых и сильных экспертов на графиках
243. На пути к разнообразному поведению: эталон для имитации обучения с человеческими демонстрациями
244. Примирение пространственных и временных абстракций для представления целей
245. LLM Augmented LLMS: расширение возможностей через композицию
246. Оценка условной взаимной информации для динамического выбора функций
247. Оценка обучения представления на вселенной структуры белка
248. Nougat: нейронное оптическое понимание для академических документов
249. Featup: модель-алкогольная структура для функций в любом разрешении
250. Разреженные автоэнкододеры находят очень интерпретируемые особенности в языковых моделях
251. OVOR: OnePrompt с виртуальной регуляризацией выбросов для репетиции без учета классов
252. Обучение на наборах данных разреженных автономных данных посредством оценки консервативной плотности
253. Качественное распределение через обратную связь с искусственным интеллектом
254. Гибридная внутренняя модель: обучение гибкой локомоции ног с моделируемой реакцией робота
255. OpenWebmath: открытый набор данных высококачественного математического веб-текста
256. Надежная оптимизация на основе моделей для сложных ландшафтов фитнеса
257. Решение высокочастотных и многомасштабных PDE с гауссовыми процессами
258. S $ 2 $ AC: Энергетическое обучение на основе энергии с критиком Stein Soft Critic Critic
259. Лучшие нейронные решатели PDE через сетки без данных
260. Условные вариационные диффузионные модели
261. Bend: сравнительный анализ моделей языка ДНК по биологически значимым задачам
262. На пути к надежной верности для оценки объяснения графических нейронных сетей
263. Нейронный оптимальный транспорт с общими функционалами затрат
264. Топологическая перспектива демистификации производительности прогнозирования каналов на основе GNN
265. Обучение подкреплению по времени со стохастическими государственными политиками
266. Откройте Black Box: пошаговые обновления политики для обучения временным коррелированным эпизодическим подкреплением
267. Можем ли мы получить лучшее из бинарных нейронных сетей и высказывания нейронных сетей для эффективного компьютерного зрения?
268. Node2ket: эффективная высокомерная сеть встраивалась в квантовое пространство Гилберта
269. Ring-a-Bell!
270. Кластеризация изображений по принципу снижения скорости в возрасте предварительных моделей
271. Vera: адаптация случайной матрицы на основе векторов
272. PerceptionClip: визуальная классификация путем вывода и кондиционирования в контекстах
273. ANTGPT: Могут ли крупные языковые модели помочь в долгосрочном ожидании действий от видео?
274. Бено: нейронные операторы, встроенные в границу для эллиптических ПД.
275. Транспортер Фурье: би-эквивалентные роботизированные манипуляции в 3D
276. Clifford Group эквивалента просты
277. Развязка крупномасштабного видео генеративного предварительного обучения для манипуляции с роботами для визуальных роботов
278.
279. Гайя: Поколение с нулевым выстрелом.
280. orleartsf: к теории и дизайну надежных временных рядов прогнозирование аномалий
281. Slicegpt: сжатие больших языковых моделей путем удаления рядов и столбцов
282. Спинной: диффузия для объектно-ориентированных представлений сцен
283. Увеличение модели бесплатно: простая стратегия для эффективной настройки параметров
284. Оставление с другой стороны в машинном обучении
285.
286. Энтропийный энтропийный энтропийный энтропийный нейронный транспорт
287. Поиск нейронной архитектуры
288. Удаление смещений из молекулярных представлений посредством максимизации информации
289. Более быстрое приближение вероятностных и распределительных значений через наименьшие квадраты
290. TAB: Временная накопленная нормализация пакетов в нейронных сетях провисания
291. Переосмысление метрики единообразия в самоотверженном обучении
292. Модель сегментации дайвинга в пиксели
293. Гибридный обмен для классификации изображений с несколькими маршрутами
294. и состязательные тренировки WI WI