Инженерное руководство с открытым исходным кодом для оперативного обучения в контексте от EgoAlpha Lab.
Документы | ⚡️ Детская площадка | ? Оперативный инжиниринг | ? Подсказка ChatGPT | ⛳ Руководство по использованию LLM
️ Сияние ️: это свежие, ежедневно обновляемые ресурсы для контекстного обучения и быстрого проектирования. По мере приближения общего искусственного интеллекта (AGI) давайте примем меры и станем суперучениками, чтобы оказаться в авангарде этой захватывающей эпохи и стремиться к личному и профессиональному величию.
Ресурсы включают в себя:
?Документы? : Последние статьи о контекстном обучении , оперативном проектировании , агентах и базовых моделях .
?Детская площадка? : Большие языковые модели (LLM), позволяющие быстро экспериментировать.
?Быстрое проектирование? : Подсказки по использованию больших языковых моделей.
?Подсказка ChatGPT? : Подскажите примеры, которые можно применить в работе и повседневной жизни.
«Руководство по использованию LLM»? : метод быстрого начала работы с большими языковыми моделями с помощью LangChain.
В будущем на Земле (возможно, даже на Марсе, но это вопрос к Маску) будут два типа людей:
?EgoAlpha: Hello! human?, are you ready?
☄️ EgoAlpha выпускает TrustGPT, ориентированный на рассуждения. Доверьте GPT, обладающему сильнейшими способностями к рассуждению, и получите достоверные и надежные ответы. Вы можете нажать здесь или посетить игровые площадки, чтобы испытать это。
[2024.11.17]
[2024.11.16]
[2024.11.15]
[2024.11.14]
[2024.11.13]
[2024.11.12]
[2024.11.11]
Полные новости истории?
Вы можете напрямую щелкнуть заголовок, чтобы перейти к соответствующему местоположению ссылки PDF.
Движение встречает внимание: видео-подсказки к движению ( 2024.07.03 )
На пути к большой языковой модели личного здоровья ( 2024.06.10 )
Husky: унифицированный языковой агент с открытым исходным кодом для многоэтапного рассуждения ( 10.06.2024 )
На пути к непрерывному изучению больших языковых моделей: опрос ( 2024.06.10 )
На пути к семантической эквивалентности токенизации в мультимодальном LLM ( 2024.06.07 )
LLM встречаются с мультимодальной генерацией и редактированием: опрос ( 2024.05.29 )
Инструментальное обучение с использованием больших языковых моделей: опрос ( 28.05.2024 )
Когда LLM вступают в мир 3D: обзор и метаанализ 3D-задач с помощью мультимодальных моделей большого языка ( 2024.05.16 )
Оценка неопределенности и количественная оценка для LLM: простой контролируемый подход ( 2024.04.24 )
Исследование механизма памяти агентов на основе больших языковых моделей ( 21.04.2024 )
Полный список бумаг? для «Обзора»?
LLaRA: Использование обучающих данных роботов для политики в области визуального языка ( 2024.06.28 )
Восстановление размера набора данных по весам LoRA ( 27.06.2024 )
Двухфазная ускоренная оперативная оптимизация ( 2024.06.19 )
От RAG к расширенным параметрам: исследование того, как языковые модели используют внешние знания вместо параметрической информации для фактических запросов ( 2024.06.18 )
VoCo-LLaMA: К сжатию изображения с помощью больших языковых моделей ( 2024.06.18 )
LaMDA: точная настройка большой модели посредством спектрально разложенной низкоразмерной адаптации ( 2024.06.18 )
Влияние инициализации на динамику точной настройки LoRA ( 2024.06.12 )
Эмпирическое исследование эффективной точной настройки мультимодальных моделей большого языка ( 2024.06.07 )
Межконтекстные бэкдор-атаки против быстрого обучения графов ( 2024.05.28 )
Yuan 2.0-M32: смесь экспертов и маршрутизатора внимания ( 2024.05.28 )
Полный список бумаг? за «Быстрый дизайн»?
Эмпирическое исследование эффективной точной настройки мультимодальных моделей большого языка ( 2024.06.07 )
Кантор: Вдохновляющая мультимодальная цепочка мыслей MLLM ( 2024.04.24 )
nicolay-r на SemEval-2024. Задача 3: Использование Flan-T5 для определения причины эмоций в беседах с цепочкой мыслей об эмоциональных состояниях ( 2024.04.04 )
Визуализация мысли вызывает пространственное мышление в больших языковых моделях ( 2024.04.04 )
Могут ли модели малого языка помочь моделям большого языка лучше рассуждать?: Цепочка мыслей под руководством LM ( 2024.04.04 )
Visual CoT: реализация цепочки мыслей в многомодальных языковых моделях ( 2024.03.25 )
Подход на основе цепочки мыслей с использованием LLM для оценки ответов учащихся на формирующую оценку по естественным наукам ( 2024.03.21 )
NavCoT: Улучшение визуальной и языковой навигации на основе LLM посредством обучения распутанному рассуждению ( 2024.03.12 )
ERA-CoT: Улучшение цепочки мыслей посредством анализа отношений сущностей ( 2024.03.11 )
Обучение последовательности, дополненной предвзятостью, уменьшает предвзятое мышление в цепочке мыслей ( 2024.03.08 )
Полный список бумаг? для «Цепи мыслей»?
LaMDA: точная настройка большой модели посредством спектрально разложенной низкоразмерной адаптации ( 2024.06.18 )
Влияние инициализации на динамику точной настройки LoRA ( 2024.06.12 )
Эмпирическое исследование эффективной точной настройки мультимодальных моделей большого языка ( 2024.06.07 )
Использование визуальных токенов для расширенных текстовых контекстов в мультимодальном обучении ( 2024.06.04 )
Учимся гроку: появление контекстного обучения и композиции навыков в задачах модульной арифметики ( 2024.06.04 )
Длинный контекст совсем не длинный: поисковик данных с большой зависимостью для больших языковых моделей ( 2024.05.28 )
Эффективная быстрая настройка с помощью мультипространственной проекции и быстрого слияния ( 2024.05.19 )
MAML-en-LLM: Независимое от модели мета-обучение LLM для улучшения контекстного обучения ( 2024.05.19 )
Улучшение разнообразия генерации здравого смысла с помощью больших языковых моделей посредством контекстного обучения ( 2024.04.25 )
Более сильные случайные базовые уровни для контекстного обучения ( 2024.04.19 )
Полный список бумаг? для «Контекстного обучения»?
Поисково-дополненная смесь экспертов LoRA для загружаемого машинного обучения ( 2024.06.24 )
Улучшение систем RAG: обзор стратегий оптимизации производительности и масштабируемости ( 2024.06.04 )
Повышение помехоустойчивости языковых моделей с расширенным поиском с помощью адаптивного состязательного обучения ( 31.05.2024 )
Ускорение вывода расширенной генерации посредством выбора разреженного контекста ( 2024.05.25 )
DocReLM: Освоение поиска документов с помощью языковой модели ( 2024.05.19 )
UniRAG: расширение универсального поиска для мультимодальных моделей большого языка ( 2024.05.16 )
ChatHuman: трехмерное понимание человека на основе языка с рассуждением, дополненным поисковыми инструментами ( 2024.05.07 )
ПРИЧИНЫ: эталон для поиска и автоматического цитирования научных предложений с использованием общедоступных и частных программ LLM ( 2024.05.03 )
Подсказка суперпозиции: улучшение и ускорение генерации с расширенным поиском ( 2024.04.10 )
Распутайте узел: переплетение противоречивых знаний и навыков рассуждения в больших языковых моделях ( 2024.04.04 )
Полный список бумаг? для «Поискового расширенного поколения»?
CELLO: Причинная оценка больших моделей визуального языка ( 2024.06.27 )
ПрЭксМе! Крупномасштабное оперативное исследование программ LLM с открытым исходным кодом для машинного перевода и оценки обобщения ( 2024.06.26 )
Возвращение к оценке понимания ссылающихся выражений в эпоху больших мультимодальных моделей ( 2024.06.24 )
OR-Bench: тест чрезмерного отказа для больших языковых моделей ( 2024.05.31 )
TimeChara: Оценка галлюцинаций персонажей в определенный момент времени в ролевых моделях большого языка ( 2024.05.28 )
Незначительные смещения требуют более тонких мер: двойные метрики для оценки смещения репрезентативности и сродства в больших языковых моделях ( 2024.05.23 )
HW-GPT-Bench: тест аппаратно-зависимой архитектуры для языковых моделей ( 2024.05.16 )
Мультимодальные LLM борются с базовым визуальным сетевым анализом: тест VNA ( 2024.05.10 )
Vibe-Eval: пакет жесткой оценки для измерения прогресса мультимодальных языковых моделей ( 2024.05.03 )
Причинная оценка языковых моделей ( 2024.05.01 )
Полный список бумаг? для «Оценки и надежности»?
Кооперативные многоагентные методы глубокого обучения для мобильных периферийных вычислительных сетей с использованием БПЛА ( 2024.07.03 )
Символическое обучение позволяет агентам саморазвиваться ( 2024.06.26 )
Состязательные атаки на мультимодальные агенты ( 2024.06.18 )
DigiRL: Обучение агентов управления устройствами в реальных условиях с помощью автономного обучения с подкреплением ( 2024.06.14 )
Преобразование носимых данных в информацию о здоровье с помощью агентов большой языковой модели ( 2024.06.10 )
Нейроморфное сновидение: путь к эффективному обучению искусственных агентов ( 2024.05.24 )
Точная настройка больших моделей языка видения в качестве агентов принятия решений посредством обучения с подкреплением ( 2024.05.16 )
Изучение многоагентной коммуникации с точки зрения графового моделирования ( 2024.05.14 )
Смурфики: использование нескольких профессиональных агентов с контекстной эффективностью для планирования инструментов ( 2024.05.09 )
Выявление различий в обработке веб-задач между человеком и веб-агентом ( 2024.05.07 )
Полный список бумаг? для «Агента»?
InternLM-XComposer-2.5: универсальная языковая модель большого масштаба, поддерживающая длинный контекстный ввод и вывод ( 2024.07.03 )
LLaRA: Использование обучающих данных роботов для политики в области визуального языка ( 2024.06.28 )
Web2Code: крупномасштабный набор данных и платформа оценки преобразования веб-страницы в код для мультимодальных LLM ( 2024.06.28 )
LLaVolta: Эффективные мультимодальные модели посредством поэтапного сжатия визуального контекста ( 2024.06.28 )
Кембрий-1: полностью открытое, ориентированное на видение исследование мультимодальных LLM ( 2024.06.24 )
VoCo-LLaMA: К сжатию изображения с помощью больших языковых моделей ( 2024.06.18 )
За пределами LLaVA-HD: погружение в большие мультимодальные модели высокого разрешения ( 2024.06.12 )
Эмпирическое исследование эффективной точной настройки мультимодальных моделей большого языка ( 2024.06.07 )
Использование визуальных токенов для расширенных текстовых контекстов в мультимодальном обучении ( 2024.06.04 )
DeCo: отделение сжатия токенов от семантической абстракции в мультимодальных моделях большого языка ( 2024.05.31 )
Полный список бумаг? для «Мультимодальной подсказки»?
IncogniText: условная анонимизация текста, повышающая конфиденциальность, посредством рандомизации частных атрибутов на основе LLM ( 2024.07.03 )
Web2Code: крупномасштабный набор данных и платформа оценки преобразования веб-страницы в код для мультимодальных LLM ( 2024.06.28 )
OMG-LLaVA: объединение рассуждений и понимания на уровне изображения, уровня объекта и пикселя ( 2024.06.27 )
Состязательная поисковая оптимизация для больших языковых моделей ( 26.06.2024 )
VideoLLM-online: Большая языковая модель онлайн-видео для потокового видео ( 2024.06.17 )
Регуляризация скрытых состояний позволяет изучить обобщаемую модель вознаграждения для студентов LLM ( 2024.06.14 )
Модель авторегрессии превосходит диффузию: Llama для генерации масштабируемых изображений ( 2024.06.10 )
Языковые модели имитируют определенные когнитивные профили: исследование того, как меры предсказуемости взаимодействуют с индивидуальными различиями ( 2024.06.07 )
PaCE: Экономичное концептуальное проектирование для больших языковых моделей ( 6 июня 2024 г. )
Yuan 2.0-M32: смесь экспертов и маршрутизатора внимания ( 2024.05.28 )
Полный список бумаг? для «Быстрого применения»?
ТеоремаЛлама: Превращение LLM общего назначения в экспертов Lean4 ( 2024.07.03 )
Понимание трехмерных форм пешеходов для повторной идентификации человека посредством многопроекционного обучения ( 2024.07.01 )
Стирание токенов как след неявных словарных единиц в LLM ( 2024.06.28 )
OMG-LLaVA: объединение рассуждений и понимания на уровне изображения, уровня объекта и пикселя ( 2024.06.27 )
Фундаментальные проблемы редактирования моделей: как должен работать пересмотр рациональных убеждений в программах LLM? ( 27.06.2024 )
Эффективные модели мира с контекстно-зависимой токенизацией ( 27.06.2024 )
Удивительная надежность программ LLM: этапы вывода? ( 27.06.2024 )
ResumeAtlas: новый взгляд на классификацию резюме с использованием крупномасштабных наборов данных и больших языковых моделей ( 2024.06.26 )
AITTI: обучение адаптивному инклюзивному токену для преобразования текста в изображение ( 2024.06.18 )
Представление моделей Vision-Language без кодировщиков ( 2024.06.17 )
Полный список бумаг? для «Фундаментальных моделей»?
Большие языковые модели (LLM) становятся революционной технологией, определяющей развитие нашей эпохи. Разработчики могут создавать приложения, которые раньше были возможны только в нашем воображении, создавая LLM. Однако использование этих программ LLM часто сталкивается с определенными техническими барьерами, и даже на вводном этапе люди могут быть напуганы передовыми технологиями: есть ли у вас какие-либо вопросы, подобные следующим?
Если бы существовало учебное пособие, доступное для всех аудиторий, а не только для специалистов в области компьютерных наук, оно содержало бы подробное и всеобъемлющее руководство, позволяющее быстро начать работу и работать за короткий промежуток времени, что в конечном итоге позволило бы достичь цели - гибко использовать LLM. и творчески строить программы, которые они себе представляют. А теперь, специально для вас: самое подробное и полное руководство для начинающих Langchain, полученное с официального сайта Langchain, но с дальнейшими корректировками содержания, сопровождаемое наиболее подробными и аннотированными примерами кода, обучающее строкам кода и предложению за предложением все аудитории.
Кликните сюда? чтобы совершить краткий обзор начала работы с LLM.
Этот репозиторий поддерживается EgoAlpha Lab. Вопросы и обсуждения приветствуются по адресу [email protected]
.
Мы готовы участвовать в дискуссиях с друзьями из академических и промышленных сообществ и вместе изучать последние разработки в области оперативного проектирования и контекстного обучения.
Спасибо аспирантам из EgoAlpha Lab и другим работникам, принявшим участие в этом репозитории. Мы улучшим проект в последующий период и будем поддерживать это сообщество в хорошем состоянии. Также хотим выразить искреннюю благодарность авторам соответствующих ресурсов. Ваши усилия расширили наш кругозор и позволили нам увидеть более чудесный мир.