Генеративный ИИ переживает быстрый рост, и этот репозиторий служит комплексным центром обновлений исследований генеративного ИИ, материалов для интервью, блокнотов и многого другого!
Изучите следующие ресурсы:
Мы будем регулярно обновлять этот репозиторий, поэтому следите за последними дополнениями!
Приятного обучения!
*Обновляется в конце каждого месяца.
Дата | Заголовок | Абстрактный | Темы |
---|---|---|---|
31 мая 2024 г. | LLM достигают результатов взрослого человека в решении задач теории разума более высокого порядка. | В этой статье исследуется степень, в которой большие языковые модели (LLM) разработали теорию разума более высокого порядка (ToM); способность человека рекурсивно рассуждать о множественных психических и эмоциональных состояниях (например, я думаю, что вы верите, что она знает). Эта статья основывается на предыдущей работе, представляя рукописный набор тестов «Вопросы и ответы по теории разума множественного порядка» и используя его для сравнения эффективности пяти программ LLM с недавно собранным эталоном для взрослых людей. Мы обнаружили, что GPT-4 и Flan-PaLM достигают уровня взрослых и почти уровня взрослых в выполнении задач ToM в целом, и что GPT-4 превосходит показатели взрослых по выводам 6-го порядка. Наши результаты показывают, что существует взаимосвязь между размером модели и точной настройкой для реализации возможностей ToM, и что наиболее эффективные LLM разработали обобщенные возможности для ToM. Учитывая роль, которую ToM более высокого порядка играет в широком спектре кооперативного и конкурентного человеческого поведения, эти результаты имеют важное значение для приложений LLM, ориентированных на пользователей. | Теория разума |
30 мая 2024 г. | JINA CLIP: ваша модель CLIP также является вашим средством извлечения текста | Предварительное обучение контрастному языку-изображению (CLIP) широко используется для обучения моделей выравниванию изображений и текстов в общем пространстве внедрения путем сопоставления их с векторами фиксированного размера. Эти модели являются ключом к мультимодальному поиску информации и связанным с ним задачам. Однако модели CLIP обычно хуже справляются с текстовыми задачами по сравнению со специализированными текстовыми моделями. Это снижает эффективность систем поиска информации, которые хранят отдельные внедрения и модели для текстовых и мультимодальных задач. Для решения этой проблемы мы предлагаем новый многозадачный метод контрастного обучения, который мы используем для обучения модели jina-clip-v1 для достижения самых современных показателей производительности как в задачах поиска текста-изображения, так и в задачах поиска текста-текста. . | Мультимодальные модели |
30 мая 2024 г. | Parrot: эффективное обслуживание приложений на основе LLM с семантической переменной | Появление больших языковых моделей (LLM) позволило использовать приложения на основе LLM (также известные как агенты искусственного интеллекта или вторые пилоты) — новую парадигму программного обеспечения, сочетающую в себе преимущества LLM и традиционного программного обеспечения. Различные приложения LLM от разных арендаторов могут создавать сложные рабочие процессы, используя несколько запросов LLM для выполнения одной задачи. Однако им приходится использовать слишком упрощенный API уровня запроса, предоставляемый сегодняшними общедоступными сервисами LLM, теряя при этом важную информацию на уровне приложения. Публичным службам LLM приходится слепо оптимизировать отдельные запросы LLM, что приводит к неоптимальной сквозной производительности приложений LLM. В этом документе представлена Parrot, система обслуживания LLM, которая фокусируется на комплексном использовании приложений на основе LLM. Parrot предлагает семантическую переменную — унифицированную абстракцию, позволяющую предоставлять знания уровня приложения общедоступным сервисам LLM. Семантическая переменная аннотирует входную/выходную переменную в приглашении запроса и создает конвейер данных при соединении нескольких запросов LLM, обеспечивая естественный способ программирования приложений LLM. Предоставление семантических переменных общедоступному сервису LLM позволяет ему выполнять традиционный анализ потока данных, чтобы выявить корреляцию между несколькими запросами LLM. Эта корреляция открывает совершенно новое пространство для оптимизации сквозной производительности приложений на основе LLM. Обширные оценки показывают, что Parrot может добиться улучшения на порядок величины для популярных и практических вариантов использования приложений LLM. | LLM Агенты |
30 мая 2024 г. | В недоумении от недоумения: сокращение данных на основе недоумения с помощью небольших эталонных моделей | В этой работе мы исследуем, могут ли небольшие языковые модели определять высококачественные подмножества крупномасштабных наборов текстовых данных, которые повышают производительность более крупных языковых моделей. Хотя существующие работы показали, что сокращение, основанное на недоумении более крупной модели, может дать высококачественные данные, мы исследуем, можно ли использовать меньшие модели для сокращения на основе недоумения и как на сокращение влияет доменный состав сокращаемых данных. Мы демонстрируем, что для нескольких композиций наборов данных сокращение предтренировочных данных на основе недоумений может значительно улучшить производительность последующих задач: сокращение на основе недоумений, вычисленных с помощью модели со 125 миллионами параметров, улучшает среднюю производительность последующих задач модели с 3 миллиардами параметров почти на 2,04. и обеспечивает сокращение количества шагов перед тренировкой до 1,45 раз для достижения соизмеримой базовой производительности. Кроме того, мы демонстрируем, что такое сокращение данных на основе недоумения также дает прирост производительности в последующих режимах в режимах с переобучением и ограничением данных. | Малые языковые модели |
30 мая 2024 г. | GNN-RAG: нейронный поиск по графу для рассуждения на модели большого языка | Графы знаний (KG) представляют собой созданные человеком фактические знания в форме троек (голова, отношение, хвост), которые вместе образуют граф. Ответы на вопросы по KG (KGQA) — это задача ответа на естественные вопросы, обосновывающие рассуждения информацией, предоставленной KG. Модели больших языков (LLM) — это самые современные модели для задач контроля качества благодаря их замечательной способности понимать естественный язык. С другой стороны, графовые нейронные сети (GNN) широко используются для KGQA, поскольку они могут обрабатывать сложную графовую информацию, хранящуюся в KG. В этой работе мы представляем GNN-RAG, новый метод объединения способностей LLM к пониманию языка с рассуждениями GNN в стиле генерации с расширенным поиском (RAG). Во-первых, GNN анализирует плотный подграф KG, чтобы найти кандидатов на ответ на заданный вопрос. Во-вторых, кратчайшие пути в ОЗ, которые соединяют объекты вопроса и кандидаты на ответы, извлекаются для представления путей рассуждения ОЗ. Извлеченные пути вербализуются и передаются в качестве входных данных для рассуждений LLM с помощью RAG. В нашей структуре GNN-RAG GNN действует как средство рассуждения плотных подграфов для извлечения полезной информации о графе, в то время как LLM использует свои возможности обработки естественного языка для окончательного KGQA. Кроме того, мы разрабатываем метод расширения поиска (RA) для дальнейшего повышения производительности KGQA с помощью GNN-RAG. Результаты экспериментов показывают, что GNN-RAG достигает самых современных показателей производительности в двух широко используемых тестах KGQA (WebQSP и CWQ), превосходя или совпадая по производительности GPT-4 с настроенным LLM 7B. Кроме того, GNN-RAG превосходно справляется с вопросами с несколькими переходами и множественными объектами, превосходя конкурирующие подходы на 8,9–15,5% баллов при ответе F1. Мы предоставляем код и результаты KGQA по адресу https://github.com/cmavro/GNN-RAG. | RAG по графикам знаний |
29 мая 2024 г. | Самоисследующиеся языковые модели: активное выявление предпочтений для онлайн-согласования | Оптимизация предпочтений, в частности с помощью обучения с подкреплением на основе обратной связи с человеком (RLHF), добилась значительных успехов в согласовании моделей большого языка (LLM) с человеческими намерениями. В отличие от автономного согласования с фиксированным набором данных, онлайн-сбор обратной связи от людей или искусственного интеллекта при создании моделей обычно приводит к созданию более эффективных моделей вознаграждения и более согласованных LLM посредством итеративного процесса. Однако создание глобально точной модели вознаграждения требует систематических исследований для получения разнообразных ответов, охватывающих обширное пространство естественного языка. Случайная выборка из стандартных LLM, максимизирующих вознаграждение, недостаточна для выполнения этого требования. Чтобы решить эту проблему, мы предлагаем двухуровневую цель, оптимистично ориентированную на потенциально высокодоходные ответы на активное исследование регионов, находящихся за пределами распределения. Решая проблему внутреннего уровня с помощью перепараметризованной функции вознаграждения, полученный алгоритм, получивший название «Самоисследующиеся языковые модели» (SELM), устраняет необходимость в отдельном RM и итеративно обновляет LLM с простой целью. По сравнению с оптимизацией прямых предпочтений (DPO), цель SELM уменьшает неизбирательное предпочтение невидимых экстраполяций и повышает эффективность разведки. Наши экспериментальные результаты показывают, что при точной настройке на моделях Zephyr-7B-SFT и Llama-3-8B-Instruct SELM значительно повышает производительность в тестах отслеживания инструкций, таких как MT-Bench и AlpacaEval 2.0, а также в различных стандартных академических тестах в различных настройках. . Наш код и модели доступны по адресу https://github.com/shenao-zhang/SELM. | Выравнивание, оптимизация предпочтений |
28 мая 2024 г. | OpenRLHF: простая в использовании, масштабируемая и высокопроизводительная платформа RLHF. | Поскольку большие языковые модели (LLM) продолжают развиваться по законам масштабирования, обучение с подкреплением на основе обратной связи от человека (RLHF) привлекло значительное внимание благодаря своей выдающейся производительности. Однако, в отличие от предварительного обучения или точной настройки одной модели, масштабирование обучения с подкреплением на основе обратной связи от человека (RLHF) для обучения больших языковых моделей создает проблемы координации между четырьмя моделями. Мы представляем OpenRLHF, платформу с открытым исходным кодом, обеспечивающую эффективное масштабирование RLHF. В отличие от существующих платформ RLHF, которые размещают четыре модели на одних и тех же графических процессорах, OpenRLHF перепроектирует планирование для моделей с параметрами, превышающими 70B, с использованием Ray, vLLM и DeepSpeed, используя улучшенное использование ресурсов и разнообразные подходы к обучению. OpenRLHF легко интегрируется с Hugging Face и предоставляет готовое решение с оптимизированными алгоритмами и сценариями запуска, что обеспечивает удобство для пользователя. OpenRLHF реализует RLHF, DPO, отбраковочную выборку и другие методы выравнивания. Код OpenRLHF, расширяющий возможности современной разработки LLM, доступен по адресу https://github.com/OpenLLMAI/OpenRLHF. | РЛХФ, Инструментарий |
28 мая 2024 г. | LLAMA-NAS: ЭФФЕКТИВНЫЙ ПОИСК НЕЙРОННОЙ АРХИТЕКТУРЫ ДЛЯ БОЛЬШИХ ЯЗЫКОВЫХ МОДЕЛЕЙ | Возможности современных моделей большого языка (LLM) в решении задач обработки естественного языка, сложных рассуждений, анализа настроений и других задач были экстраординарными, что привело к их широкому внедрению. К сожалению, эти возможности требуют очень высоких затрат памяти и вычислений, что исключает использование LLM на большинстве аппаратных платформ. Чтобы смягчить это, мы предлагаем эффективный метод поиска оптимальных по Парето сетевых архитектур на основе LLaMA2-7B с использованием одноразового NAS. В частности, мы настраиваем LLaMA2-7B только один раз, а затем применяем поиск на основе генетических алгоритмов, чтобы найти меньшие и менее сложные в вычислительном отношении сетевые архитектуры. Мы показываем, что для некоторых стандартных эталонных задач предварительно обученная сеть LLaMA2-7B неоправданно велика и сложна. В частности, мы демонстрируем уменьшение размера модели в 1,5 раза и увеличение производительности в 1,3 раза для определенных задач с незначительным падением точности. Помимо поиска меньших по размеру и более производительных сетевых архитектур, наш метод делает это более эффективно и результативно, чем некоторые методы сокращения или разрежения. Наконец, мы демонстрируем, как квантование дополняет наш метод и что размер и сложность обнаруженных нами сетей можно дополнительно уменьшить с помощью квантования. Мы считаем, что наша работа дает возможность автоматически создавать LLM, которые можно использовать на менее дорогих и более доступных аппаратных платформах. | Поиск нейронной архитектуры, уменьшение размера модели |
28 мая 2024 г. | Не забудьте подключиться! Улучшение RAG с помощью реранжирования на основе графов | Поисковая расширенная генерация (RAG) значительно улучшила производительность ответов модели большого языка (LLM), обеспечив генерацию контекстом из существующих документов. Эти системы работают хорошо, когда документы явно соответствуют контексту вопроса. Но как насчет того, когда документ содержит частичную информацию или менее очевидные связи с контекстом? И как нам рассуждать о связях между документами? В этой работе мы стремимся ответить на эти два основных вопроса о генерации RAG. Мы представляем G-RAG, средство повторного ранжирования на основе графовых нейронных сетей (GNN) между ретривером и читателем в RAG. Наш метод сочетает в себе как связи между документами, так и семантическую информацию (через графы абстрактного представления значения), чтобы обеспечить контекстно-информируемый ранжировщик для RAG. G-RAG превосходит современные подходы, занимая при этом меньшую вычислительную мощность. Кроме того, мы оцениваем эффективность PaLM 2 в качестве средства изменения рейтинга и считаем, что он значительно отстает от G-RAG. Этот результат подчеркивает важность изменения ранжирования RAG даже при использовании моделей большого языка. | ТРЯПКА для рассуждения |
27 мая 2024 г. | Метеор: обоснование больших языковых и визуальных моделей на основе Мамбы | Быстрое развитие больших моделей языка и зрения (LLVM) было обусловлено достижениями в настройке визуальных инструкций. В последнее время LLVM с открытым исходным кодом курируют высококачественные наборы данных для настройки визуальных инструкций и используют дополнительные кодеры машинного зрения или несколько моделей компьютерного зрения, чтобы сократить разрыв в производительности с помощью мощных LLVM с закрытым исходным кодом. Эти достижения объясняются многогранной информацией, необходимой для различных способностей, включая фундаментальное понимание изображений, реальные знания об общепринятых и непредметных концепциях (например, диаграммы, символы, знаки и математические задачи), а также пошаговые инструкции. -шаговые процедуры решения сложных вопросов. Опираясь на многогранную информацию, мы представляем новый эффективный LLVM, обход обоснований на основе Mamba (Meteor), который использует многогранное обоснование для улучшения понимания и возможностей ответа. Для внедрения длинных обоснований, содержащих большое количество информации, мы используем архитектуру Mamba, способную обрабатывать последовательные данные с линейной временной сложностью. Мы вводим новую концепцию обхода обоснования, которая облегчает эффективное внедрение обоснования. Впоследствии базовая мультимодальная языковая модель (MLM) обучается генерировать ответы с помощью обоснования. Благодаря этим шагам Meteor достигает значительного улучшения производительности языка видения в нескольких тестах оценки, требующих разнообразных возможностей, без увеличения размера модели или использования дополнительных кодировщиков машинного зрения и моделей компьютерного зрения. Код доступен по адресу https://github.com/ByungKwanLee/Meteor. | Модели пространства состояний, мультимодальные модели |
27 мая 2024 г. | Введение в моделирование визуального языка | После недавней популярности моделей большого языка (LLM) было предпринято несколько попыток распространить их на визуальную область. От визуального помощника, который может помочь нам в незнакомой среде, до генеративных моделей, которые создают изображения, используя только текстовое описание высокого уровня, приложения модели языка видения (VLM) существенно повлияют на наши отношения с технологиями. Однако существует множество проблем, которые необходимо решить для повышения надежности этих моделей. Хотя язык дискретен, зрение развивается в пространстве гораздо более высокого измерения, в котором понятия не всегда можно легко дискретизировать. Чтобы лучше понять механизм сопоставления видения с языком, мы представляем это введение в VLM, которое, как мы надеемся, поможет любому, кто хочет заняться этой областью. Сначала мы познакомим вас с тем, что такое VLM, как они работают и как их обучать. Затем мы представляем и обсуждаем подходы к оценке VLM. Хотя эта работа в первую очередь сосредоточена на сопоставлении изображений с языком, мы также обсуждаем распространение VLM на видео. | Мультимодальные модели, исследование |
27 мая 2024 г. | Матрешки Мультимодальные модели | Большие мультимодальные модели (LMM), такие как LLaVA, показали высокие результаты в визуально-лингвистических рассуждениях. Эти модели сначала встраивают изображения в фиксированное большое количество визуальных токенов, а затем передают их в модель большого языка (LLM). Однако такая конструкция приводит к чрезмерному количеству токенов для насыщенных визуальных сценариев, таких как изображения и видео с высоким разрешением, что приводит к значительной неэффективности. Несмотря на то, что существуют методы сокращения и слияния токенов, они создают выходные данные одинаковой длины для каждого изображения и не могут обеспечить гибкость в выборе соотношения плотности информации и эффективности. Вдохновленные концепцией матрешки, мы предлагаем M3: мультимодальные модели матрешки, которые учатся представлять визуальный контент как вложенные наборы визуальных токенов, которые собирают информацию с множеством уровней детализации от грубой до мелкой. Наш подход предлагает несколько уникальных преимуществ для LMM: (1) можно явно контролировать визуальную детализацию каждого экземпляра теста во время вывода, например, регулируя количество токенов, используемых для представления изображения, в зависимости от ожидаемой сложности или простоты контента; (2) M3 обеспечивает основу для анализа детализации, необходимой для существующих наборов данных, где мы обнаруживаем, что для тестов в стиле COCO требуется всего около 9 визуальных токенов, чтобы получить точность, аналогичную точности использования всех 576 токенов; (3) Наш подход обеспечивает основу для поиска наилучшего компромисса между производительностью и длиной визуального токена на уровне выборки, где наше исследование показывает, что существует большой разрыв между верхней границей оракула и текущими представлениями с фиксированным масштабом. | Мультимодальные модели |
27 мая 2024 г. | Trans-LoRA: к эффективной точной настройке передаваемых параметров без передачи данных | Адаптеры низкого ранга (LoRA) и их варианты — это популярные методы точной настройки с эффективным использованием параметров (PEFT), которые точно соответствуют производительности точной настройки полной модели, требуя при этом лишь небольшого количества дополнительных параметров. Эти дополнительные параметры LoRA относятся к адаптируемой базовой модели. Когда базовую модель необходимо объявить устаревшей и заменить новой, все связанные модули LoRA необходимо переобучить. Такое повторное обучение требует доступа к данным, используемым для обучения LoRA для исходной базовой модели. Это особенно проблематично для коммерческих облачных приложений, где модули LoRA и базовые модели размещаются у поставщиков услуг, которым может быть запрещено размещать собственные данные задач клиента. Чтобы решить эту проблему, мы предлагаем Trans-LoRA — новый метод передачи LoRA без потерь и практически без данных между базовыми моделями. Наш подход основан на синтетических данных для передачи модулей LoRA. Используя большие языковые модели, мы разрабатываем генератор синтетических данных, который аппроксимирует процесс генерации данных наблюдаемого подмножества данных задачи. Обучение на полученном синтетическом наборе данных переносит модули LoRA в новые модели. Мы показываем эффективность нашего подхода, используя семейства моделей LLama и Gemma. Наш подход обеспечивает передачу LoRA без потерь (в основном улучшенную) между моделями внутри и между различными семействами базовых моделей и даже между различными методами PEFT для самых разных задач. | Методы PEFT, точная настройка |
26 мая 2024 г. | Оптимизация предпочтений самостоятельной игры для согласования языковой модели | Традиционные подходы к обучению с подкреплением на основе обратной связи с человеком (RLHF), основанные на параметрических моделях, таких как модель Брэдли-Терри, не способны уловить нетранзитивность и иррациональность человеческих предпочтений. Недавние достижения показывают, что непосредственная работа с вероятностями предпочтений может дать более точное отражение человеческих предпочтений, обеспечивая более гибкое и точное выравнивание языковой модели. В этой статье мы предлагаем метод выравнивания языковой модели, основанный на самостоятельной игре, который рассматривает проблему как игру для двух игроков с постоянной суммой, направленную на определение политики равновесия Нэша. Наш подход, получивший название «Оптимизация предпочтений самостоятельной игры» (SPPO), приближает равновесие Нэша посредством итеративных обновлений политики и имеет теоретическую гарантию конвергенции. Наш метод может эффективно увеличить логарифмическую вероятность выбранного ответа и уменьшить вероятность отклоненного ответа, чего нельзя тривиально достичь с помощью симметричных парных потерь, таких как оптимизация прямых предпочтений (DPO) и оптимизация предпочтений идентичности (IPO). В наших экспериментах, используя только 60 тыс. подсказок (без ответов) из набора данных UltraFeedback и без какого-либо расширения подсказок, используя предварительно обученную модель предпочтений PairRM только с 0,4 млрд параметров, SPPO может получить модель в результате тонкой настройки Mistral-7B- Instruct-v0.2, который обеспечивает современный процент побед с контролем длины 28,53% против GPT-4-Turbo на АльпакаЕвал 2.0. Он также превосходит (итеративный) DPO и IPO на MT-Bench и Open LLM Leaderboard. Примечательно, что высокая производительность SPPO достигается без дополнительного внешнего контроля (например, ответов, предпочтений и т. д.) со стороны GPT-4 или других более сильных языковых моделей. | Согласование, оптимизация |
23 мая 2024 г. | Не все функции языковой модели линейны | В недавней работе была предложена гипотеза линейного представления: языковые модели выполняют вычисления, манипулируя одномерными представлениями концепций («функций») в пространстве активации. Напротив, мы исследуем, могут ли некоторые представления языковых моделей быть по своей сути многомерными. Мы начнем с разработки строгого определения нередуцируемых многомерных признаков, основанного на том, можно ли их разложить на независимые или несовпадающие многомерные признаки. Руководствуясь этими определениями, мы разрабатываем масштабируемый метод, который использует разреженные автокодировщики для автоматического поиска многомерных функций в GPT-2 и Mistral 7B. Эти автоматически обнаруженные функции включают в себя удивительно интерпретируемые примеры, например, круговые функции, представляющие дни недели и месяцы года. Мы определяем задачи, в которых именно эти круги используются для решения вычислительных задач, связанных с модульной арифметикой по дням недели и месяцам года. Наконец, мы предоставили доказательства того, что эти круговые особенности действительно являются фундаментальной единицей вычислений в этих задачах, с помощью экспериментов по вмешательству на Mistral 7B и Llama 3 8B, и мы находим дальнейшие круговые представления, разбивая скрытые состояния для этих задач на интерпретируемые компоненты. | Анализ линейного представления |
23 мая 2024 г. | AlignGPT: мультимодальные модели большого языка с возможностью адаптивного выравнивания | Мультимодальные модели большого языка (MLLM) широко считаются решающими в исследовании общего искусственного интеллекта (AGI). Суть MLLM заключается в их способности достигать межмодального согласования. Для достижения этой цели современные MLLM обычно следуют двухэтапной парадигме обучения: фазе предварительного обучения и фазе настройки инструкций. Несмотря на их успех, в рамках этих моделей имеются недостатки в моделировании возможностей выравнивания. Во-первых, на этапе предварительного обучения модель обычно предполагает, что все пары изображение-текст равномерно выровнены, но на самом деле степень выравнивания между различными парами изображение-текст непостоянна. Во-вторых, инструкции, используемые в настоящее время для точной настройки, включают в себя множество задач. Инструкции для разных задач обычно требуют разных уровней возможностей согласования, но предыдущие MLLM упускали из виду эти дифференцированные потребности в согласовании. Для решения этих проблем мы предлагаем новую мультимодальную модель большого языка AlignGPT. На этапе предварительного обучения вместо того, чтобы одинаково обрабатывать все пары «изображение-текст», мы назначаем разные уровни возможностей выравнивания для разных пар «изображение-текст». Затем, на этапе настройки инструкций, мы адаптивно комбинируем эти различные уровни возможностей выравнивания для удовлетворения потребностей динамического выравнивания различных инструкций. Обширные экспериментальные результаты показывают, что наша модель достигает конкурентоспособной производительности по 12 тестам. | Выравнивание, мультимодальная модель |
23 мая 2024 г. | HippoRAG: нейробиологическая долговременная память для больших языковых моделей | Чтобы процветать во враждебной и постоянно меняющейся природной среде, мозг млекопитающих научился хранить большие объемы знаний о мире и постоянно интегрировать новую информацию, избегая при этом катастрофического забывания. Несмотря на впечатляющие достижения, большие языковые модели (LLM), даже с поисково-дополнительной генерацией (RAG), по-прежнему с трудом справляются с задачей эффективной и действенной интеграции большого количества нового опыта после предварительного обучения. В этой работе мы представляем HippoRAG, новую структуру поиска, вдохновленную теорией индексации гиппокампа долговременной памяти человека, которая обеспечивает более глубокую и эффективную интеграцию знаний с новым опытом. HippoRAG синергетически управляет LLM, графами знаний и алгоритмом персонализированного PageRank, чтобы имитировать различные роли неокортекса и гиппокампа в человеческой памяти. Мы сравниваем HippoRAG с существующими методами RAG при ответе на вопросы с несколькими шагами и показываем, что наш метод значительно превосходит современные методы, до 20%. Одношаговый поиск с помощью HippoRAG обеспечивает сравнимую или лучшую производительность, чем итеративный поиск, такой как IRCoT, но при этом он в 10–30 раз дешевле и в 6–13 раз быстрее, а интеграция HippoRAG в IRCoT приносит дополнительные существенные выгоды. Наконец, мы показываем, что наш метод может решать новые типы сценариев, которые недоступны существующим методам. | Оптимизация RAG |
21 мая 2024 г. | OmniGlue: обобщенное сопоставление функций с руководством базовой модели | В области сопоставления изображений постоянно появляются новые обучаемые методы сопоставления признаков с постоянно улучшающейся производительностью по традиционным тестам. Однако наше исследование показывает, что, несмотря на эти преимущества, их потенциал для реальных приложений ограничен их ограниченными возможностями обобщения на новые области изображений. В этой статье мы представляем OmniGlue, первое обучаемое средство сопоставления изображений, в основе которого лежит обобщение. OmniGlue использует обширные знания из базовой модели видения для управления процессом сопоставления функций, ускоряя обобщение для областей, не наблюдаемых во время обучения. Кроме того, мы предлагаем новый механизм внимания, ориентированный на положение ключевых точек, который распутывает информацию о пространстве и внешнем виде, что приводит к улучшенному сопоставлению дескрипторов. Мы проводим комплексные эксперименты с набором из 7 наборов данных с различными областями изображений, включая изображения на уровне сцены, объектно-ориентированные и аэрофотоснимки. Новые компоненты OmniGlue приводят к относительному выигрышу в невидимых областях на 20,9% по сравнению с напрямую сопоставимой эталонной моделью, а также превосходят недавний метод LightGlue на 9,5% относительно. Код и модель можно найти по адресу https://hwjiang1510.github.io/OmniGlue. | Мультимодальные модели |
20 мая 2024 г. | MoRA: обновление высокого ранга для эффективной точной настройки параметров | Низкоранговая адаптация (LoRA) — это популярный метод тонкой настройки с эффективным использованием параметров (PEFT) для больших языковых моделей (LLM). В этой статье мы анализируем влияние обновления низкого ранга, реализованного в LoRA. Наши результаты показывают, что механизм обновления низкого ранга может ограничивать способность LLM эффективно изучать и запоминать новые знания. Вдохновленные этим наблюдением, мы предлагаем новый метод под названием MoRA, который использует квадратную матрицу для достижения обновления высокого ранга при сохранении того же количества обучаемых параметров. Для этого мы вводим соответствующие непараметрические операторы, чтобы уменьшить входную размерность и увеличить выходную размерность квадратной матрицы. Более того, эти операторы гарантируют, что вес можно будет объединить обратно в LLM, что позволяет использовать наш метод так же, как LoRA. Мы проводим комплексную оценку нашего метода по пяти задачам: настройка инструкций, математические рассуждения, постоянное предварительное обучение, память и предварительное обучение. Наш метод превосходит LoRA в задачах с интенсивным использованием памяти и обеспечивает сопоставимую производительность в других задачах. Наш код будет доступен по адресу https://github.com/kongds/MoRA. | Подходы PEFT, точная настройка |
19 мая 2024 г. | Ваш трансформатор тайно линеен | В этой статье раскрывается новая линейная характеристика, эксклюзивная для трансформаторных декодеров, включая такие модели, как GPT, LLaMA, OPT, BLOOM и другие. Мы анализируем преобразования внедрения между последовательными слоями, обнаруживая почти идеальную линейную связь (оценка сходства по Прокрусту 0,99). Однако линейность снижается при удалении остаточной составляющей из-за стабильно низкой выходной нормы трансформаторного слоя. Наши эксперименты показывают, что удаление или линейное приближение некоторых из наиболее линейных блоков трансформаторов не оказывает существенного влияния на потери или производительность модели. Более того, в наших экспериментах по предварительному обучению на меньших моделях мы вводим регуляризацию на основе косинусного подобия, направленную на уменьшение линейности слоев. Эта регуляризация улучшает показатели производительности в таких тестах, как Tiny Stories и SuperGLUE, а также успешно снижает линейность моделей. Это исследование бросает вызов существующему пониманию архитектуры трансформаторов, предполагая, что их работа может быть более линейной, чем предполагалось ранее.1 | Анализ трансформатора |
18 мая 2024 г. | На пути к модульным программам LLM путем создания и повторного использования библиотеки LoRA | Растущее число эффективных по параметрам адаптаций базовой модели большого языка (LLM) требует изучения того, можем ли мы повторно использовать такие обученные адаптеры для повышения производительности для новых задач. Мы изучаем, как лучше всего создать библиотеку адаптеров с учетом многозадачных данных, и разрабатываем методы как для нулевого, так и для контролируемого обобщения задач посредством маршрутизации в такой библиотеке. Мы сравниваем существующие подходы к созданию этой библиотеки и представляем кластеризацию на основе моделей, MBC, метод, который группирует задачи на основе сходства их параметров адаптера, косвенно оптимизируя передачу по многозадачному набору данных. Для повторного использования библиотеки мы представляем новый механизм нулевой маршрутизации Arrow, который позволяет динамически выбирать наиболее подходящие адаптеры для новых входов без необходимости повторного обучения. Мы экспериментируем с несколькими LLM, такими как Phi-2 и Mistral, на широком спектре задач, проверяя, что адаптеры на основе MBC и маршрутизация Arrow приводят к превосходному обобщению для новых задач. Мы делаем шаги к созданию модульных, адаптируемых программ LLM, которые могут соответствовать традиционному совместному обучению или превосходить его. | Подходы PEFT, точная настройка, набор инструментов |
16 мая 2024 г. | Хамелеон: смешанно-модальные фундаментальные модели раннего слияния | Мы представляем Chameleon, семейство смешанных модальных моделей на основе токенов раннего слияния, способных понимать и генерировать изображения и текст в любой произвольной последовательности. Мы описываем стабильный подход к обучению с самого начала, рецепт выравнивания и архитектурную параметризацию, адаптированную для раннего слияния, на основе смешанного модального на основе токенов. Модели оцениваются на всеобъемлющем диапазоне задач, включая ответ на визуальные вопросы, подписание изображений, генерацию текста, генерацию изображений и смешанную модальную генерацию с длинной формой. Chameleon демонстрирует широкие и общие возможности, в том числе современные показатели в задачах подписания изображений, превосходит Llama-2 в задачах только для текста, одновременно конкурентоспособные с такими моделями, как Mixtral 8x7b и Gemini-Pro, и выполняет нетривиальное изображение поколение, все в одной модели. Он также соответствует или превышает производительность гораздо более крупных моделей, включая Gemini Pro и GPT-4V, согласно человеческим суждениям на новой давно формированной оценке генерации смешанной модальной, где либо подсказка, либо выходы содержат смешанные последовательности как изображений, так и текста. . Хамелеон отмечает значительный шаг вперед в едином моделировании полных мультимодальных документов. | Мультимодальные модели, модель фундамента |
16 мая 2024 года | Многократное встроенное обучение в моделях мультимодальных фундаментов | Модели больших языков хорошо известны как эффективные при нескольких выстрелах в контексте обучения (ICL). Недавние достижения в моделях мультимодального фонда позволили беспрецедентно длинные контекстные окна, предоставив возможность изучить их возможность выполнять ICL со многими другими демонстрационными примерами. В этой работе мы оцениваем производительность моделей мультимодальных фундаментов, масштабирующих от нескольких выстрелов до многих выстрелов ICL. Мы сравниваем GPT-4O и Gemini 1.5 Pro в 10 наборах данных, охватывающих несколько доменов (природные образы, медицинские образы, дистанционное зондирование и молекулярные изображения) и задачи (многоклассные, многопользовательские и мелкозернистую классификацию). Мы наблюдаем, что многократный ICL, в том числе до почти 2000 мультимодальных, демонстрирующих примеры, приводит к существенным улучшениям по сравнению с несколькими выстрелами (<100 примеров) ICL во всех наборах данных. Кроме того, производительность Gemini 1.5 Pro продолжает улучшать логарифмические линейные до максимального количества протестированных примеров на многих наборах данных. Учитывая высокие затраты на вывод, связанные с длинными подсказками, необходимыми для многократного ICL, мы также исследуем влияние партии нескольких запросов в одном вызове API. Мы показываем, что количество до 50 запросов может привести к улучшению производительности в рамках нулевого выстрела и многих-Shot ICL, с существенным прибылью в настройке с нулевым выстрелом на нескольких наборах данных, при этом резко снижая затраты и задержку за цифру. Наконец, мы измеряем эффективность данных ICL моделей или скорость, с которой модели учатся из более демонстрирующих примеров. Мы обнаруживаем, что, хотя GPT-4O и Gemini 1.5 Pro достигают аналогичной производительности с нулевым выстрелом в наборах данных, Gemini 1.5 Pro демонстрирует более высокую эффективность данных ICL, чем GPT-4O на большинстве наборов данных. Наши результаты показывают, что ICL много выстрелов может позволить пользователям эффективно адаптировать мультимодальные модели фундамента к новым приложениям и областям. Наша кодовая база публично доступна по адресу https://github.com/stanfordmlgroup/manyicl. | ICL, мультимодальные модели |
15 мая 2024 года | Лора учится меньше и забывает меньше | Адаптация с низким уровнем ранга (LORA) является широко используемым параметром, эффективным для параметров для крупных языковых моделей. Лора сохраняет память, тренируя только возмущения низкого ранга к выбранным матрицам веса. В этой работе мы сравниваем производительность LORA и полного создания в двух целевых областях, программировании и математике. Мы рассматриваем как пары инструкций (≈100K, пары оперативного ответа), так и постоянные предварительные (≈10b неструктурированные токены) режимы данных. Наши результаты показывают, что в большинстве настройки Лора значительно снижает полное создание. Тем не менее, Лора демонстрирует желательную форму регуляризации: она лучше поддерживает производительность базовой модели по задачам за пределами целевой области. Мы показываем, что Лора обеспечивает более сильную регуляризацию по сравнению с общими методами, такими как распад веса и отсечение; Это также помогает поддерживать более разнообразные поколения. Мы показываем, что полная производительность изучает возмущения с рангом, который на 10-100x больше, чем типичные конфигурации LORA, возможно, объясняя некоторые из сообщенных пробелов. Мы заключаем, предлагая лучшие практики для создания с Лорой. | Пефт приближается, тонкая настройка |
14 мая 2024 года | Понимание разрыва в производительности между алгоритмами выравнивания онлайн и офлайн | Подкрепление обучения от обратной связи с человеком (RLHF) является канонической структурой для выравнивания модели крупного языка. Тем не менее, растущая популярность в алгоритмах выравнивания в автономном режиме бросает вызов необходимости отбора проб в политике в RLHF. В контексте чрезмерной оптимизации вознаграждения мы начинаем с начального набора экспериментов, которые демонстрируют четкое преимущество онлайн-методов по сравнению с автономными методами. Это побуждает нас исследовать причины несоответствия производительности посредством серии тщательно разработанных экспериментальных абляций. Мы эмпирически показываем, что гипотезы, такие как охват данных в автономном режиме и качество данных само по себе, не могут убедительно объяснить разницу в производительности. Мы также обнаруживаем, что хотя автономные алгоритмы обучают политику, чтобы стать хорошей в парной классификации, в поколениях это хуже; Тем временем политика, обучаемая онлайн -алгоритмам, хороша в поколениях, в то же время хуже при парной классификации. Это намекает на уникальное взаимодействие между дискриминационными и генеративными возможностями, которое сильно влияет на процесс отбора проб. Наконец, мы отмечаем, что расхождение производительности сохраняется как для контрастных, так и для неконтрастных функций потерь, и, по-видимому, не рассматривается путем простого масштабирования политических сетей. Взятые вместе, наше исследование проливает свет на ключевую роль отбора проб на политике в выравнивании ИИ и намекает на определенные фундаментальные проблемы алгоритмов выравнивания в автономном режиме. | Выравнивание |
13 мая 2024 г. | Рабочий процесс RLHF: от моделирования вознаграждения до онлайн RLHF | В этом техническом отчете мы представляем рабочий процесс обучения итеративного подкрепления онлайн -итеративного подкрепления, о котором широко сообщается о том, чтобы превзойти его автономный аналог с большим отрывом в недавней литературе по модели крупной языковой модели (LLM). Тем не менее, существующие проекты RLHF с открытым исходным кодом по-прежнему в значительной степени ограничены в автономных условиях обучения. В этом техническом отчете мы стремимся заполнить этот пробел и предоставить подробный рецепт, который легко воспроизвести для онлайн -итерационного RLHF. В частности, поскольку онлайн-обратная связь с человеком обычно невозможно для сообществ с открытым исходным кодом с ограниченными ресурсами, мы начнем с построения моделей предпочтений с использованием разнообразного набора наборов данных с открытым исходным кодом и используем построенную модель предпочтения прокси для приблизительной обратной связи человека. Затем мы обсудим теоретические идеи и алгоритмические принципы, лежащие в основе онлайн -итеративного RLHF, за которым следует подробная практическая реализация. Наш обученный LLM, SFR-Eiterative-DPO-LLAMA-3-8B-R достигает впечатляющих результатов на критериях чат-ботов LLM, включая Alpacaeval-2, Arena-Hard и Mt-Bench, а также другие академические показатели, такие как Humaneval Правдифка. Мы показали, что контролируемая тонкая настройка (SFT) и итеративный RLHF могут получить современную производительность с помощью наборов данных с полностью открытым исходным кодом. Кроме того, мы сделали наши модели, курируемые наборы данных и всеобъемлющие пошаговые руководства по коду, публично доступными. Пожалуйста, обратитесь к https://github.com/rlhflow/rlhf-reward-modeling и https://github.com/rlhflow/online-rlhf для получения более подробной информации. | Оптимизация предпочтений, RLHF |
2 мая 2024 г. | Прометей 2: Модель с открытым исходным кодом, специализированная на оценке других языковых моделей | Собственные LMS, такие как GPT-4, часто используются для оценки качества ответов от различных LMS. Тем не менее, проблемы, включая прозрачность, управляемость и доступность, решительно мотивируют разработку OpenSource LMS, специализирующихся на оценках. С другой стороны, существующие открытые оценщики LMS демонстрируют критические недостатки: 1) они выпускают оценки, которые значительно расходятся от тех, которые назначены людьми, и 2) им не хватает гибко . Кроме того, они не обладают способностью оценивать на основе пользовательских критериев оценки, сосредоточив внимание на общих атрибутах, таких как полезность и безвредность. Чтобы решить эти проблемы, мы представляем Prometheus 2, более мощного оценщика LM, чем его предшественник, который внимательно отражает суждения человека и GPT-4. Более того, он способен обрабатывать как прямую оценку, так и парные форматы ранжирования, сгруппированные с определенными пользовательскими критериями оценки. На четырех критериях прямой оценки и четырех контрольных показателях с парным рейтингом Prometheus 2 оценивает самую высокую корреляцию и согласие с людьми и собственности LM Sudies среди всех протестированных открытых оценочных LMS. Наши модели, код и данные общедоступны 1. | Оценка, агенты |
2 мая 2024 г. | WildChat: 1m chatgpt вводит журналы в дикой природе | Чат-боты, такие как GPT-4 и CHATGPT, теперь обслуживают миллионы пользователей. Несмотря на их широкое использование, остается отсутствие общедоступных наборов данных, демонстрирующих, как эти инструменты используются популяцией пользователей на практике. Чтобы преодолеть этот пробел, мы предложили бесплатный доступ к CHATGPT для онлайн-пользователей в обмен на их позитивное, согласованное согласие на анонимное собрание транскриптов в чате и заголовков запросов. Исходя из этого, мы собрали Wildchat, корпус из 1 миллиона разговоров с чатгпт, который состоит из более чем 2,5 миллиона поворотов взаимодействия. Мы сравниваем WildChat с другими популярными наборами данных по взаимодействию с пользователем-хатботом и обнаруживаем, что наш набор данных предлагает наиболее разнообразные подсказки пользователя, содержит наибольшее количество языков и представляет собой самый богатый разнообразие потенциально токсичных случаев использования для исследователей для изучения. В дополнение к стенограммам чата с меткой чата мы обогащаем набор данных демографическими данными, включая штат, страна и хэшированные IP -адреса, наряду с заголовками запросов. Это увеличение позволяет проводить более подробный анализ поведения пользователей в разных географических регионах и временных аспектах. Наконец, поскольку он отражает широкий спектр вариантов использования, мы демонстрируем потенциальную утилиту набора данных в моделях с точной настройкой, посвященной инструкциям. Wildchat выпускается по адресу https://wildchat.allen.ai под лицензиями AI2 Impact1. | Эталонный, оценка |
2 мая 2024 г. | Storydiffusion: Постоянное самоуничтожение за дальнейшим изображением и генерацией видео | Для недавних генеративных моделей на основе диффузии, поддержания постоянного контента в серии генерируемых изображений, особенно тех, которые содержат субъекты и сложные детали, представляет собой серьезную проблему. В этой статье мы предлагаем новый способ самоотверженного расчета, который называется последовательным самопринятым, что значительно повышает согласованность между генерируемыми изображениями и увеличивает распространенные предварительные модели на основе диффузии на основе диффузии. Чтобы расширить наш метод до генерации видео на дальнем диапазоне, мы дополнительно представляем новый модуль прогнозирования временного движения семантического пространства, названного Semantic Motion Predictor. Он обучен оценить условия движения между двумя предоставленными изображениями в семантических пространствах. Этот модуль преобразует сгенерированную последовательность изображений в видео с плавными переходами и последовательными субъектами, которые значительно более стабильны, чем модули, основанные только на скрытых пространствах, особенно в контексте длинного генерации видео. Объединяя эти два новых компонента, наша структура, называемая Storydiffusion, может описать текстовую историю с последовательными изображениями или видео, охватывающими богатое разнообразие содержимого. Предлагаемая Storydiffusion охватывает новаторские исследования в области генерации визуальных историй с представлением изображений и видео, которые, как мы надеемся, могут вдохновить больше исследований с аспекта архитектурных изменений. | Мультимодальные модели, диффузия |
2 мая 2024 г. | Пламя: фактическое выравнивание для крупных языковых моделей | Выравнивание-это стандартная процедура для предварительно обученных крупных языковых моделей с тонкой настройкой, чтобы следовать инструкциям по естественному языку и служить полезными помощниками искусственного интеллекта. Однако мы наблюдали, что обычный процесс выравнивания не может повысить фактическую точность LLM и часто приводит к генерации более ложных фактов (то есть галлюцинации). В этой статье мы изучаем, как сделать процесс выравнивания LLM более фактическим, сначала выявляя факторы, которые приводят к галлюцинации на обоих этапах выравнивания: контролируемой тонкой настройки (SFT) и обучения подкреплению (RL). В частности, мы находим, что обучение LLM по новым знаниям или незнакомым текстам может поощрять галлюцинацию. Это делает SFT менее фактическим, поскольку он тренируется на маркированных человеческих данных, которые могут быть новыми для LLM. Кроме того, функции вознаграждения, используемые в стандартном RL, также могут поощрять галлюцинацию, потому что она направляет LLM для предоставления более полезных ответов на разнообразный набор инструкций, часто предпочитая более длинные и более подробные ответы. Основываясь на этих наблюдениях, мы предлагаем выравнивание с учетом фактов (Flame), состоящее из RL фактической, с учетом фактического плана и фактического плана, посредством непосредственной оптимизации предпочтений. Эксперименты показывают, что предлагаемые нами руководства по выравниванию фактического плана | Выравнивание, фактическая |
2 мая 2024 г. | Nemo-Aligner: масштабируемый инструментарий для эффективного выравнивания модели | Выравнивание крупных языковых моделей (LLMS) с человеческими ценностями и предпочтениями необходимо для того, чтобы сделать их полезными и безопасными. Тем не менее, создание эффективных инструментов для выравнивания может быть сложным, особенно для крупнейших и наиболее компетентных LLM, которые часто содержат десятки или сотни миллиардов параметров. Мы создаем Nemo-Aligner, инструментарий для выравнивания модели, который может эффективно масштабироваться для использования сотен графических процессоров для обучения. Nemo-Aligner поставляется с высоко оптимизированными и масштабируемыми реализациями для основных парадигм выравнивания моделей, таких как: подкрепление обучения от обратной связи человека (RLHF), оптимизация прямой предпочтения (DPO), Steerlm и самостоятельная настройка (SPIN). Кроме того, наш инструментарий поддерживает запуск большинства методов выравнивания в параметрах эффективной тонкой настройки (PEFT). Nemo-Aligner предназначен для расширяемости, позволяя поддержать другие методы выравнивания с минимальными усилиями. Он открыт с лицензией Apache 2.0, и мы приглашаем взносы сообщества по адресу https://github.com/nvidia/nemo-aligner. | Выравнивание, инструментарий |
1 мая 2024 года | Всегда ли больше редактировать размер редактирования? - Эмпирическое исследование по редактированию модели с Llama-3 | В этом исследовании представлен целевой анализ редактирования модели, ориентированный на новейшую большую языковую модель Llama-3. Мы исследуем эффективность методов редактирования популярных моделей - Рим, Memit и Emmet, которые предназначены для точных вмешательств слоя. Мы определяем наиболее эффективные слои для целевых изменений посредством оценки, которая охватывает до 4096 редакций по трем различным стратегиям: последовательное редактирование, редактирование партии и гибридный подход, который мы называем в качестве редактирования последовательной оценки. Наши результаты показывают, что увеличение редактирования размеров пакетов может снизить производительность модели более значительно, чем использование меньших партий редактирования последовательно для равного количества редактирования. При этом мы утверждаем, что редактирование последовательной модели является важным компонентом для масштабирования методов редактирования модели, и будущие исследования должны сосредоточиться на методах, которые объединяют как пакетное, так и последовательное редактирование. Это наблюдение предполагает потенциальное ограничение в текущих методах редактирования модели, которые продвигаются к большим размерам редактирования, и мы надеемся, что он проложит путь для будущих исследований оптимизации размеров партий и производительности редактирования моделей. | Модель редактирования |
1 мая 2024 года | LORA LAND: 310 тонко настроенных LLM, которые конкурируют с GPT-4, технический отчет | Адаптация с низким рангом (LORA) стала одним из наиболее широко принятых методов для эффективного параметров точной настройки (PEFT) крупных языковых моделей (LLMS). Лора уменьшает количество обучаемых параметров и использования памяти, достигая сопоставимой производительности с полной точной настройкой. Мы стремимся оценить жизнеспособность обучения и обслуживания LLMS, настраиваемых с Lora в реальных приложениях. Во-первых, мы измеряем качество LLMS, настраиваемое с квантованными адаптерами с низким рангом в 10 моделях базовых и 31 задачи, в общей сложности 310 моделей. Мы находим, что 4-битные модели Lora с тонкой настройкой превосходят базовые модели на 34 балла и в среднем GPT-4 на 10 баллов. Во-вторых, мы исследуем наиболее эффективные базовые модели для точной настройки и оцениваем коррелятивные и прогнозирующие способности эвристики сложности сложности задачи для прогнозирования результатов точной настройки. Наконец, мы оцениваем возможности задержки и параллелистики Lorax, сервера вывода с открытым исходным кодом, который облегчает развертывание нескольких моделей LORA, настраиваемых на одном графическом процессоре, с использованием весов общей базовой модели и динамической загрузки адаптера. Lorax Powers Lora Land, веб-приложение, которое размещает 25 тонко настроенных LORA MISTRAL-7B LLMS на одном графическом процессоре NVIDIA A100 с 80 ГБ памяти. Lora Land подчеркивает качество и экономическую эффективность использования нескольких специализированных LLMS в одном, общего назначения LLM. | Пефт приближается, тонкая настройка |
Присоединяйтесь к 1000+ студентам в этом 10-недельном приключении, когда мы углубимся в применение LLMS в различных вариантах использования
? ️ *Неделя 1 [15 января 2024] *: Практическое введение в LLMS
? ️ *Неделя 2 [22 января 2024] *: подсказка и быстрое проектирование
? ️ *неделя 3 [29 января 2024] *:
? ️ *Неделя 4 [5 февраля 2024] *: Rag (Поигрыватель-поколение в поисках)
? ️ *неделя 5 [12 февраля 2024] *: Инструменты для создания приложений LLM
? ️ *Неделя 6 [19 февраля 2024 г.] *: методы оценки
? ️ *Неделя 7 [26 февраля 2024] *: Создание собственного приложения LLM
? ️ *Неделя 8 [4 марта 2024] *: расширенные функции и развертывание
? ️ *неделя 9 [11 марта 2024] *: вызовы с LLMS
? ️ *Неделя 10 [18 марта 2024 г.] *: Новые тренды исследований
? ️ *Неделя 11 *Бонус *[25 марта 2024] *: Фонды
Большие языковые модели от Zurich
Понимание крупных языковых моделей Принстона
Курс трансформаторов по Huggingface
Курс NLP от Huggingface
CS324 - Модели больших языков от Стэнфорда
Генеративный ИИ с большими языковыми моделями Coursera
Введение в генеративный ИИ Coursera Coursera
Генеративные основы ИИ от Google Cloud
Введение в крупные языковые модели от Google Cloud
Введение в генеративный ИИ от Google Cloud
Генеративные концепции искусственного интеллекта от DataCamp (Daniel Tedesco Data Lead @ Google)
1 час Введение в LLM (модели с большими языками) Weclouddata
LLM Foundation Models с нуля | Праймер по DataBricks
Генеративный ИИ объясняется NVIDIA
Модели трансформаторов и модель BERT от Google Cloud
Генеративный план обучения ИИ для лиц, принимающих решения, от AWS
Введение в ответственное ИИ от Google Cloud
Основы генеративного ИИ от Microsoft Azure
Генеративный ИИ для начинающих от Microsoft
CHATGPT для начинающих: окончательные варианты использования для всех по Udemy
[1 час разговора] Вступление в крупные языковые модели от Андрея Карпати
Chatgpt для всех, изучив подсказка
Модели крупных языков (LLMS) (на английском языке) Кшитиз Верма (Университет JK Lakshmipat, Джайпур, Индия)
Llmops: создание реальных приложений с большими языковыми моделями по Udacity
Full Stack LLM Bootcamp от FSDL
Генеративный ИИ для начинающих от Microsoft
Большие языковые модели: приложение через производство с помощью данных DataBricks
Генеративные основы ИИ от AWS
Введение в генеративный курс сообщества ИИ по ineuron
Университет LLM от Cohere
LLM Learning Lab от Lightning AI
Langchain для LLM Development Deeplearning.ai
Llmops от Deeplearning.ai
Автоматизированное тестирование на LLMOPS Deeplearning.ai
Строительство генеративных приложений искусственного интеллекта с использованием Amazon Bedrock от AWS
Эффективно обслуживание LLMS с помощью DeepLearning.ai
Строительные системы с API ChatGPT от DeepLearning.ai
Приложения LLM без серверов с Amazon Bedrock от DeepLearning.ai
Строительные приложения с векторными базами данных с помощью DeepLearning.ai
Автоматизированное тестирование на LLMOPS Deeplearning.ai
Llmops от Deeplearning.ai
Build LLM -приложения с langchain.js от Deeplearning.ai
Продвинутый поиск для ИИ с Chroma By DeepLearning.ai
ОПЕРУЖИВАНИЕ LLMS на Azure Coursera
Генеративный AI Полный курс - Gemini Pro, Openai, Llama, Langchain, Pinecone, Vector Databases и многое другое от freecodecamp.org
Training & Fine-Tuning LLMS для производства от ActiveLoop
Базы данных Langchain & Vector в производстве от ActiveLoop
Подкрепление обучения от обратной связи с человеком DeepLearning.ai
Строительные приложения с векторными базами данных с помощью DeepLearning.ai
Создание больших языковых моделей с помощью DeepLearning.ai
Langchain: Общайтесь с вашими данными DeepLearning.ai
Строительные системы с API ChatGPT от DeepLearning.ai
Быстрое инженер с Llama 2 от DeepLearning.ai
Строительные приложения с векторными базами данных с помощью DeepLearning.ai
CHATGPT QUANT Engineering для разработчиков от DeepLearning.ai
Арендевая серия оркестестров
Обратная техническая специализация Coursera
Увеличить свой LLM, используя извлечение дополненного поколения NVIDIA
Графики знаний для Rag от DeepLearning.ai
Модели с открытым исходным кодом с обнимающим лицом DeepLearning.ai
Векторные базы данных: от внедрения до заявок с помощью DeepLearning.ai
Понимание и применение текста встроения с помощью DeepLearning.ai
JavaScript Rag Apps с LmamainDex от DeepLearning.ai
Основы квантования с обнимающимся лицом Deeplearning.ai
Предварительная обработка неструктурированных данных для приложений LLM с помощью Deeplearning.ai
Поиск дополненного поколения для производства с Langchain & Llamaindex от Activeloop
Квантование по глубине с помощью Deeplearning.ai
Если вы хотите добавить в репозиторий или найти какие -либо проблемы, не стесняйтесь поднять PR и обеспечить правильное размещение в соответствующем разделе или категории.
Чтобы привести это руководство, используйте приведенный ниже формат:
@article{areganti_generative_ai_guide,
author = {Reganti, Aishwarya Naresh},
journal = {https://github.com/aishwaryanr/awesome-generative-ai-resources},
month = {01},
title = {{Generative AI Guide}},
year = {2024}
}
[MIT Лицензия]