Поскольку появление модели крупной языка (LLM), представленной CHATGPT, благодаря своей удивительной способности общего универсального искусственного интеллекта (AGI), она создала волну исследований и применения в области обработки естественного языка. Особенно после небольшого открытого исходного кода LLM LLM, который может работать с ChatGlm, Llama и другими гражданскими игроками, есть много случаев с минимально скорректированными LLM или приложениями, основанными на LLM. Этот проект направлен на то, чтобы собирать и сортировать модели с открытым исходным кодом, приложения, наборы данных и учебные пособия, связанные с китайским LLM.
Если этот проект может принести вам небольшую помощь, позвольте мне немного немного ~
В то же время вы также можете внести свой вклад в непопулярные модели с открытым исходным кодом, приложения, наборы данных и т. Д. Этот проект. Предоставьте новую информацию, пожалуйста, инициируйте PR и предоставьте соответствующую информацию, такую как складские ссылки, номера звезд, профили, брифинг и другую связанную информацию в соответствии с форматом этого проекта
Общий обзор сведений об общей базовой модели:
База
Включите модель
Размер параметров модели
Токен следов
Максимальное обучение
Будь то коммерциализировать
Чатглм
Chatglm/2/3/4 Base & Chat
6B
1t/1,4
2K/32K
Коммерческое использование
Лама
Llama/2/3 Base & Chat
7b/8b/13b/33b/70b
1t/2t
2K/4K
Частично коммерциализирован
Бачуань
Baichuan/2 база и чат
7b/13b
1,2 т/1,4 т
4K
Коммерческое использование
Qwen
QWEN/1,5/2/2,5 BASE & CHAT & VL
7b/14b/32b/72b/110b
2.2T/3T/18T
8K/32K
Коммерческое использование
Цвести
Цвести
1b/7b/176b-mt
1,5 т
2K
Коммерческое использование
Аквила
Аквила/2 База/чат
7b/34b
-
2K
Коммерческое использование
Интернет
Интернет
7b/20b
-
200k
Коммерческое использование
Mixtrac
База и чат
8x7b
-
32к
Коммерческое использование
Yi
База и чат
6b/9b/34b
3T
200k
Коммерческое использование
DeepSeek
База и чат
1,3b/7b/33b/67b
-
4K
Коммерческое использование
Xverse
База и чат
7b/13b/65b/a4.2b
2.6t/3.2t
8K/16K/256K
Коммерческое использование
Оглавление
Оглавление
1. Модель
1.1 Модель текста LLM
1.2 Multi -Family LLM модель
2. Приложение
2.1 Фильтрация в вертикальном поле
Медицинская помощь
закон
финансы
обучать
Наука и техника
E -commerce
Сетевая безопасность
сельское хозяйство
2.2 Приложение Langchain
2.3 Другие приложения
3. Набор данных
Предварительное подготовку набора данных
Набор данных SFT
Набор данных предпочтения
4. LLM Обучение
5. Структура развертывания рассуждений LLM
6. Оценка LLM
7. LLM Учебник
LLM Основные знания
Подсказка инженерного учебника
LLM Учебник по приложению
Фактический учебник по бою
8. Связанный склад
Звездная история
1. Модель
1.1 Модель текста LLM
Chatglm:
Адрес: https://github.com/thudm/chatglm-6b
Введение: одна из самых эффективных моделей с открытым исходным кодом в китайской области, оптимизированная китайская Q & A и диалог. После двуязычного обучения примерно 1T идентификатор, дополненного такими технологиями, как контроль тонкой подключения, обратная связь и обратная связь от обратной связи с человеком для укрепления обучения
Chatglm2-6b
Адрес: https://github.com/thudm/chatglm2-6b
Введение: Основываясь на версии второго поколения китайского и английского диалога Catglm-6B, он представил гибридную целевую функцию GLM на основе сохранившегося диалога модели и низких порогов развертывания, которые были сохранены -Создание британских идентификационных символов в T и выравнивание человеческих предпочтений; коммерческое использование.
Chatglm3-6b
Адрес: https://github.com/thudm/chatglm3
Введение: Chatglm3-6B-это модель с открытым исходным кодом в серии ChatGlm3. : Базовая модель Chatglm3- 6b Catglm3-6b использует больше учебных данных, более полные учебные шаги и более разумные стратегии обучения;同时原生支持工具调用 (вызов функции) 、代码执行 (интерпретатор кода) 和 Агент 任务等复杂场景;更全面的开源序列 : 除了对话模型 Chatglm3-6b 外 , 还开源了基础模型 Chatglm3-6b-база 、长文本Диалог модель Чатглм3-6B-32K. Приведенный выше вес полностью открыт для академических исследований, и бесплатное коммерческое использование также разрешено после заполнения вопросника.
GLM-4
Адрес: https://github.com/thudm/glm-4
Краткое введение: GLM-4-9B-это версия открытого исходного кода модели предварительного обучения последнего поколения, запущенной Smart Spectrum AI. В оценке наборов данных, таких как семантика, математика, рассуждения, код и знания, GLM-4-9B и ее версия для человеческих предпочтений GLM-4-9B-чата, все показывают превосходную производительность за пределы эссенции Llama-3-8B. В дополнение к нескольким раундам диалога, GLM-4-9B-чат также имеет расширенные функции, такие как просмотр веб-страниц, выполнение кода, пользовательский вызов инструмента (вызов функции) и длинные текстовые рассуждения (поддержка максимального контекста 128K). Это поколение добавило многослойную поддержку, поддерживая 26 языков, включая японские, корейские и немецкие. Мы также запустили модели GLM-4-9B-Chat-1M , которые поддерживают 1M контекстуальную длину (около 2 миллионов китайских иелок) и многомодовой модели GLM-4V-9B на основе GLM-4-9B. GLM-4V-9B обладает многоязычной многоязычной многоязычной диалоговой способностью при высоком разрешении 1120 * 1120. Во многих аспектах многомодальной оценки, таких как всеобъемлющая китайская и английская комплексная способность, рассуждения о восприятии, распознавание текста, понимание диаграммы, GLM-4V -9b Экспресс превосходный характер превосходного GPT-4-Turbo-2024-04-09, Gemini 1.0 Pro, Qwen-VL-Max и Claude 3 Opus.
Qwen/qwen1.5/qwen2/qwen2.5
Адрес: https://github.com/qwenlm
Введение: Tongyi Qianwen - это серия моделей модели Tongyi Qianwen, разработанной Alibaba Cloud, включая шкалу параметров 1,8 миллиарда (1,8 млрд), 7 миллиардов (7b), 14 миллиардов (14b), 72 миллиарда (72b), 1100 и и и 1100 100 миллионов (110b). Модели каждой шкалы включают базовую модель QWEN и диалоговую модель. Наборы данных включают в себя различные типы данных, такие как текст и код. Эффективно назовите плагин -в и обновите до Essence Agent Essence
Введение: Шантанг Технологии, Шанхайская лаборатория ИИ и Китайский университет Гонконга, Университет Фудана и Университет Шанхай Цзяотонг, выпустили 100 -миллиардную параметр «Параметр», «Стипендия». Сообщается, что «Scholar Pu» имеет 104 миллиарда параметров и обучен на основе «многокачественного набора данных высокого качества, содержащего 1,6 триллиона токена».
Интернет
Адрес: https://github.com/internlm/internlm
ВВЕДЕНИЕ: Technology Shangtang, Шанхайская лаборатория AI и Китайский университет Гонконга, Университет Фудана и Университет Шанхай Цзяотонг, выпустили 100 -миллиардную параметр параметров, большая языковая модель "internlm2". Internlm2 добился больших успехов в цифровом, коде, диалоге и создании, и всеобъемлющая производительность достигла ведущего уровня модели с открытым исходным кодом. Internlm2 содержит две модели: 7b и 20b. 7B предоставляет легкую, но уникальную модель для исследования и применения легких, всеобъемлющих характеристик модели 20B является более мощной, и она может эффективно поддерживать более сложные и практические сценарии.
DeepSeek-V2
Адрес: https://github.com/deepseek-ai/deepseek-v2
Введение: DeepSeek-V2: мощная, экономичная и эффективная модель гибридного языка эксперта
ВВЕДЕНИЕ: Большая предварительно подготовленная языковая модель, разработанная Baichuan Intelligent Development. Основываясь на структуре трансформатора, модель параметров 7 миллиардов, обученная около 1,2 триллиона токенов, поддерживает китайский и английский двуязычный, а длина окна контекста составляет 4096. Как стандартный контрольный балл китайского и английского языка (C-Eval/MMLU) имеет наилучший эффект одного и того же размера.
Введение: Baichuan-13b-это крупномасштабная языковая модель, содержащая 13 миллиардов параметров после Baichuan-7B после Baichuan-7B. Проект публикует две версии: Baichuan-13b-база и Baichuan-13b-Chat.
Baichuan2
Адрес: https://github.com/baichuan-inc/baichuan2
ВВЕДЕНИЕ: Новое поколение модели с открытым исходным кодом, выпущенная Baichuan Intelligence, использует 2,6 триллиона токенов для обучения с высоким качеством корпуса. Полем
Xverse-7b
Адрес: https://github.com/xverse- ai/xverse-7b
ВВЕДЕНИЕ: Большая языковая модель, поддерживаемая технологией Shenzhen Yuanxiang, поддерживает многослойные модели, поддерживает длину 8K контекста и использует высококачественные и диверсифицированные данные 2,6 триллионов токена для обучения модели. Россия и Западная. Он также включает в себя модели количественных версий GGUF и GPTQ, которые поддерживают рассуждения на llama.cpp и vllm в системе MacOS/Linux/Windows.
Xverse-13b
Адрес: https://github.com/xverse- ai/xverse-13b
ВВЕДЕНИЕ: Большие языковые модели, поддерживаемые технологией Shenzhen Yuanxiang, поддерживая многослойные модели, поддержку длины контекста 8K (длина контекста) и использование высококачественных и диверсифицированных данных 3,2 триллиона токена для полного обучения модели. Как Британия, Россия и Западная. Включая диалоговое окно длиной последовательности xverse-13B-256K. Он также включает в себя модели количественных версий GGUF и GPTQ, которые поддерживают рассуждения на llama.cpp и vllm в системе MacOS/Linux/Windows.
Xverse-65b
Адрес: https://github.com/xverse- ai/xverse-65b
Введение: Большая языковая модель, поддерживаемая технологией Shenzhen Yuanxiang, поддерживает многослойную модель, поддерживает длину контекста 16K и использует высококачественные и диверсифицированные данные 2,6 триллиона токена для обучения модели для полного обучения модели Такие языки, как Британия, Россия и Западная. Включая инкрементальную модель предварительного обучения Xverse-65B-2 с дополнительным предварительным тренировком. Он также включает в себя модели количественных версий GGUF и GPTQ, которые поддерживают рассуждения на llama.cpp и vllm в системе MacOS/Linux/Windows.
ВВЕДЕНИЕ: Большой языковой модель, которая поддерживает многоязычную технологию Shenzhen Yuanxiang. Поддержите более 40 языков, таких как Китай, Британия, Россия и Западная.
Скайв
Адрес: https://github.com/skyworkai/skywork
Введение: проект открыт для моделей серии Tiangong. Специфическая модель Skywork-13b-базы, модель Skywork-13b-чат, модель Skywork-13b-Math, модель Skywork-13B-MM и количественные модели версий каждой модели для поддержки пользователей для развертывания и разумы в развертывании графических карт потребительских карт и Рассуждение сущность
Yi
Адрес: https://github.com/01- ai/yi
Краткое введение: этот проект открыт для таких моделей, как YI-6B и YI-34B. Документы с более чем 1000 страниц.
Введение: Проект основан на коммерческом обучении LlaMa-2. -Намоть несколько раундов, чтобы адаптироваться к различным сценариям приложений и многоуровневым диалоговому взаимодействиям. В то же время мы также рассмотрим более быстрое китайское решение для адаптации: китайский-лама2-SFT-V0: используйте существующие инструкции с открытым исходным кодом китайской настройки или данные диалога для непосредственно настройки Llama-2 (недавно будет открытым исходным кодом).
Введение: На основе LLAMA-7B, большой языковой модели, генерируемой предварительным обучением инкрементного обучения китайского набора данных по сравнению с оригинальной ламой, эта модель значительно улучшилась с точки зрения китайского понимания и генерирования. Полем
Белль:
Адрес: https://github.com/lianjiaatech/belle
Введение: открытый исходный код для серии моделей, основанных на оптимизации Bloomz и Llama. Алгоритмы обучения по производительности модели.
Панда:
Адрес: https://github.com/dandelionsllm/pandallmm
Введение: Открытый исходный код основан на Llama -7b, -13b, -33b, -65b для непрерывного предварительно подготовленного языковых моделей в китайском поле и использует почти 15 миллионов данных для вторичного предварительного подготовки.
Робин (Робин):
Адрес: https://github.com/optimalscale/lmflow
Краткое введение: Робин (Робин) -это китайско -английская двуязычная модель, разработанная командой LMFLOW Университета науки и техники Китая. Только модель второго генерации Robin, полученная только с данными данных 180K, была отличной, достигнув первого места в списке HuggingFace. LMFLOW поддерживает пользователей быстро тренировать персонализированные модели.
Введение: Fengshenbang-LM (Большая модель Бога)-это большая модель с открытым исходным кодом, в которой преобладают когнитивные вычисления и исследования естественного языка. , копирайтинг, викторина здравого смысла и математические вычисления. В дополнение к моделям серии Jiangziya, проект также открыт для таких моделей, как серия Taiyi и Erlang God.
Билла:
Адрес: https://github.com/neutralzz/billa
Краткое введение: проект является открытым исходным источником китайской двуязычной модели ламы с расширенными возможностями рассуждений. Основными характеристиками модели являются: значительно улучшают возможности понимания китайского языка и минимизировать ущерб английской способности исходной ламы как можно больше; Понимание модели задачи для решения логики задачи;
МОХ:
Адрес: https://github.com/openlmlab/moss
ВВЕДЕНИЕ: Поддержка языка диалога с открытым исходным кодом для китайского и английского языка и нескольких плагинов. Обучение предпочтениям, в нем есть инструкции по диалогу, подключение к обучению и обучение человеческим предпочтениям.
Введение: Он включает в себя серию проектов с открытым исходным кодом крупных китайских языковых моделей, которые содержат серию языковых моделей, основанных на существующих моделях с открытым исходным кодом (Moss, Llama), инструкции для тонких наборов данных.
Линли:
Адрес: https://github.com/cvi-szu/linly
ВВЕДЕНИЕ: Предоставьте китайскую модель диалога Linly-Chatflow, китайскую базовую модель Linly-Chinese-Llama и ее обучающие данные. Китайская базовая модель основана на ламе, использующем китайскую, китайскую и британскую параллельную постепенную подготовку. В проекте суммируются текущие данные об инструкциях с несколькими языками, которые проводит крупномасштабные инструкции, чтобы следовать китайской модели, чтобы следовать обучению и реализовать модель диалога с линими.
Светлячок:
Адрес: https://github.com/yangjianxin1/firefly
Введение: Firefly -это крупный проект с открытым исходным кодом для китайского языка. Как Бачуань Бачуань, Зия, Блум, Ллама и т. Д. Удерживая Lora и базовую модель для слияния веса, что удобнее для разума.
Чатуан
Адрес: https://github.com/clue- ai/Chatyuan
Введение: серия функциональных языковых моделей диалога, поддерживаемых Yuanyu Intelligent, которая поддерживает Sino -British двуязычный диалог, оптимизированный в данных о тонком обработке, улучшенное обучение человеческой обратной связи, цепочка мышления и т. Д.
Chatrwkv:
Адрес: https://github.com/blinkdl/chatrwkv
ВВЕДЕНИЕ: Открытый исходный код. Серия моделей чата (включая английский и китайский), основанные на архитектуре RWKV, опубликованных моделях, включая Raven, Novel-Chneng, Novel-CH и Novel-Chneng-Chnpro, могут напрямую общаться и играть поэзию, романы и другие творения.
Cpm-bee
Адрес: https://github.com/openbmbmbmb/cpm-bee
Краткое введение: Полный открытый исходный код, допустимое коммерческое использование 10 миллиардов параметров китайских и английских базовых моделей. Он принимает архитектуру авторегрессии Transformer для проведения предварительного обучения по высококачественному корпусу в триллионе и обладает сильными основными возможностями. Разработчики и исследователи могут адаптироваться к различным сценариям на основе базовой модели CPM-BEE для создания моделей приложений в определенных областях.
Тигробот
Адрес: https://github.com/tigerresearch/tigerbot
ВВЕДЕНИЕ: крупномасштабная языковая модель (LLM) с многоязычным и многозадачным (LLM), с открытым исходным кодом включает в себя модели: Tigerbot-7B, Tigerbot-7B-база, Tigerbot-180b, базовый код обучения и рассуждения, 100G. Данные предварительного обучения, охватывающие финансы и закон, область энциклопедии и API.
ВВЕДЕНИЕ: Опубликовано Научно-исследовательским институтом Zhiyuan, моделью языка Aquila, унаследовавшей преимущества архитектурного дизайна GPT-3, ламы и т. Д., Заменила группу более эффективных базовых операторов для достижения, перепроектировал китайский и английский двуязычный токенизатор, модернизировал параллель BMTRAIN Метод обучения, основанный на 0 На основе китайского и английского корпуса. Это также первая крупная модель с открытым исходным кодом, которая поддерживает кино -брюк -двуязычные знания, поддерживает коммерческое лицензионное соглашение и отвечает потребностям внутреннего соответствия данных.
Aquila2
Адрес: https://github.com/flagai-open/aquila2
ВВЕДЕНИЕ: Опубликовано Научно-исследовательским институтом Zhiyuan, серия Aquila2, включая базовую языковую модель Aquila2-7B, Aquila2-34B и Aquila2-70B-EXPR, диалог Aquilachat2-7B, Aquilachat2-34B и Aquilachat2-70b-Expr, Long Text Text Dialog Aquilachat2 и Aquilachat2-70B-EXPR, Long Text Text Dialog. -7b-16k и aquilachat2-34b-16.
Анима
Адрес: https://github.com/lyogavin/anima
Введение: открытый источник модели на базе 33B на базе 33B, разработанной AI Ten Technology. Основываясь на рейтинговом турнире ELO, оценка турнира лучше.
Ноулм
Адрес: https://github.com/zjunlp/knowlm
Введение: проект Knowlm направлен на публикацию структуры крупных моделей с открытым исходным кодом и соответствующих весов модели, чтобы помочь уменьшить проблему ошибки знаний, включая сложность знаний о крупных моделях и потенциальных ошибках и предрассудках. Первый этап проекта опубликовал извлечение LLAMA извлечения больших модельных интеллектуальных анализов, используя китайский и английский корпус для дальнейшего обучения Llama (13B) и оптимизирует задачи извлечения знаний, основанные на технологии инструкции по конверсии графа о знаниях.
Бэйлинг
Адрес: https://github.com/ictnlp/bayling
Введение: крупная универсальная модель с расширенным выравниванием перекрестного языка была разработана группой по естественным языкам Института компьютерных технологий китайской академии наук. Bayling использует LlaMa в качестве базовой модели, исследуя метод инструкций с тонкой точкой с интерактивными задачами по переводу. Полем При оценке многословного перевода, интерактивного перевода, универсальных задач и стандартизированных экзаменов Бай Линг показал лучшую производительность на китайском/английском языке. Bai Ling предоставляет онлайн -версию демонстрации для всех.
Юлан-чаат
Адрес: https://github.com/ruc-gsai/yulan- чат
ВВЕДЕНИЕ: Yulan-Chat-это большая языковая модель, разработанная исследователями GSAI Университета Ренмина. Он разрабатывается в порядке -на основе ламы и имеет высококачественные инструкции по английскому и китайскому. Yulan-Chat может общаться с пользователями, хорошо следовать инструкциям по английскому или китайскому и китайскому и может быть развернута на графическом процессоре (A800-80G или RTX3090) после количественной оценки.
Полилм
Адрес: https://github.com/damo-nlp-mt/polylm
Краткое введение: многослова модель, обученная с началом 640 миллиардов слов, включая размер двух моделей (1,7B и 13B). Полилм охватывает Китай, Британию, Россию, Запад, Францию, Португальцы, Германию, Италию, Хе, Бо, Бобо, Аши, Евреям, Япония, Южная Корея, Таиланд, Вьетнам, Индонезию и другие типы, особенно более дружелюбные к азиатскому языку.
Huozi
Адрес: https://github.com/hit-scir/huozi
ВВЕДЕНИЕ: крупная предварительно подготовленная языковая модель крупной предварительно подготовленной языковой модели, разработанной Институтом исследований в области лечения языка Харбина. Эта модель основана на модели параметров 7 миллиардов структуры цветов, которая поддерживает китайский и английский двуязычный. набор данных.
Яйи
Адрес: https://github.com/weenge-research/yayi
ВВЕДЕНИЕ: Элегантная модель отличается в полевых данных высокого качества высококачественной области миллионов искусственных структур. и городское управление. Из итерации предварительной инициализации предварительной подготовки мы постепенно улучшали его основные возможности для китайского и полезного анализа и увеличивали несколько раундов диалога и некоторых возможностей подключения. В то же время, после внутреннего тестирования сотен пользователей, непрерывная оптимизация искусственной обратной связи была постоянно улучшена, что еще больше повышает производительность и безопасность модели. Открытый источник китайской модели оптимизации, основанной на Llama 2, исследует последние практики, подходящие для китайских миссий во многих областях китайцев.
Yayi2
Адрес: https://github.com/weenge-research/yayi2
Введение: Yayi 2 - это новое поколение моделей с открытым исходным кодом, разработанных Zhongke Wenge, включая базовые и чаты со шкалой параметров 30B. YAYI2-30B-это большая языковая модель, основанная на трансформаторе, используя высококачественный и многоязычный корпус более 2 триллионов токенов для предварительного обучения. В ответ на сценарии применения в целом и конкретных областях мы использовали миллионы инструкций для тонких тун -тун, и в то же время мы используем обратную связь человека для укрепления методов обучения, чтобы лучше выравнивать модель и человеческие ценности. Эта модель с открытым исходным кодом-базовая модель YAYI2-30B.
Юань-2,0
Адрес: https://github.com/ieit-yuan/yuan-2.0
Введение: Проект открыт для нового поколения базовой языковой модели, выпущенной Inspur Information. И предоставить соответствующие сценарии для предварительного подготовки, тонкого -подсчета и рассуждений. Source 2.0 основан на источнике 1.0, используя более высококачественные предварительные данные и наборы данных с тонким тунцаром, чтобы сделать модель, иметь более сильное понимание в семантике, математике, рассуждениях, коде и знаниях.
Введение: Проект проводит предварительное обучение китайско-эксплуатационной таблицы на основе экспертной экспертной модели Mixtral-8x7b. Китайская эффективность кодирования этой модели значительно улучшена, чем исходная модель. В то же время, посредством инкрементного предварительного подготовки к крупно -масштабному корпусу с открытым исходным кодом, эта модель обладает сильной китайской поколением и пониманием.
Bluelm
Адрес: https: //github.com/vivo-jlab/bluelm
ВВЕДЕНИЕ: Bluelm -это крупная предварительно подготовленная языковая модель, независимо разработанная в Глобальном исследовательском институте Vivo. (Чат) модель.
Введение: Orionstar-YI-34B-чат-это модель YI-34B на основе Hangion Starry Sky, основанная на открытом исходном источнике 10 000 вещей. Интерактивный опыт для крупных модельных пользователей сообщества.
Minicpm
Добавлять
ВВЕДЕНИЕ: Minicpm-это серия моделей по боковой стороне, обычно открываемой интеллектом стен лапши и лабораторией лечения естественного языка Tsinghua. параметров.
Mengzi3
Адрес: https://github.com/langboat/mengzi3
ВВЕДЕНИЕ: Модель Mengzi3 8b/13b основана на архитектуре LLAMA, с выбором корпуса на веб -страницах, энциклопедии, социальных сетях, медиа, новостях и высококачественных наборах данных с открытым исходным кодом. Продолжая многочисленное обучение корпуса на Триллионе токены, китайская способность модели является выдающейся и учитывает многослойные способности.
1.2 Multi -Family LLM модель
Visualglm-6b
Адрес: https://github.com/thudm/visualglm-6b
Введение: с открытым исходным кодом, многомодовый диалог. Опираясь на китайскую графическую пару высокого качества 30 м из набора данных Cogview, предварительно подготовленную с экранированной английской графикой с 300 м.
Cogvlm
Адрес: https://github.com/thudm/cogvlm
Краткое введение: мощная модель визуального языка с открытым исходным кодом (VLM). Cogvlm-17b имеет 10 миллиардов визуальных параметров и 7 миллиардов языковых параметров. COGVLM-17B достиг производительности SOTA в 10 классических межмодулярных тестах. Cogvlm может точно описать изображения, и почти не появляется галлюцинаций.
ВВЕДЕНИЕ: Многомодные китайские модели, разработанные на основе китайского модельного проекта Llama & Alpaca. VisualCla добавляет модули кодирования изображения в китайскую модель ламы/альпаки, чтобы модель LLAMA могла получать визуальную информацию. Исходя из этого, китайская графика использовалась для многоодальной предварительной подготовки данных. Инструкции в режиме в настоящее время открыты с открытым исходным кодом VisualCla-7b-V0.1.
Лампа
Адрес: https://github.com/linksoul- ai/llasm
Краткое введение: первая модель с открытым исходным кодом и коммерческого диалога, которая поддерживает мультимодальный диалог китайского и английского двойного текста. Удобный голосовой ввод значительно улучшит опыт большой модели с текстом в качестве ввода, избегая утомительных процессов на основе решений ASR и возможных ошибок, которые могут быть введены. В настоящее время с открытым исходным кодом Llasm-Chinese-Llama-2-7B, Llasm-Baichuan-7b и другие модели и наборы данных.
VISCPM
Добавлять
Введение: многомодовая и большая модельная серия с открытым исходным кодом, поддерживает китайский и английский двуязычный многомодовый диалог (модели VISCPM-чат) и текст на возможности генерации графика (модель VISCPM-Paint). VISCPM основан на десятках миллиардов параметров, крупномасштабной языковой модели CPM-BEE (10B) и интегрирует визуальный кодер (Q-форматор) и визуальный декодер (диффузионный UNET) для поддержки ввода и вывода Визуальный сигнал.得益于CPM-Bee基座优秀的双语能力,VisCPM可以仅通过英文多模态数据预训练,泛化实现优秀的中文多模态能力。
Introduction: The project is open to the field of Chinese long text instructions with a multi-scale psychological counseling field with a multi-round dialogue data combined instruction to fine-tune the psychological health model (Soulchat). Fully tune the full number of parameters Полем
Introduction: WingPT is a large model based on the GPT-based medical vertical field. Based on the Qwen-7B1 as the basic pre-training model, it has continued pre-training in this technology, instructions fine-tuning. -7B-Chat модель.
简介:LazyLLM是一款低代码构建多Agent大模型应用的开发工具,协助开发者用极低的成本构建复杂的AI应用,并可以持续的迭代优化效果。 Lazyllm provides a more flexible application function customization method, and realizes a set of lightweight network management mechanisms to support one -click multi -Agent application, support streaming output, compatible with multiple IaaS platforms, and support the model in the application model Continue fine - настройка.
MemFree
地址:https://github.com/memfreeme/memfree
简介:MemFree 是一个开源的Hybrid AI 搜索引擎,可以同时对您的个人知识库(如书签、笔记、文档等)和互联网进行搜索, 为你提供最佳答案。MemFree 支持自托管的极速无服务器向量数据库,支持自托管的极速Local Embedding and Rerank Service,支持一键部署。
Data set description: The scholar · Wanjuan 1.0 is the first open source version of the scholar · Wanjuan multi -modal language library, including three parts: text data set, graphic data set, and video data set. The total amount of data exceeds 2TB Полем 目前,书生·万卷1.0已被应用于书生·多模态、书生·浦语的训练。通过对高质量语料的“消化”,书生系列模型在语义理解、知识问答、视觉理解、视觉问答等各类生成式任务表现出的优异性能。
数据集说明:数据集通过ChatGPT改写真实的心理互助QA为多轮的心理健康支持多轮对话(single-turn to multi-turn inclusive language expansion via ChatGPT),该数据集含有56k个多轮对话,其对话主题、词汇和篇章语义更加丰富多样,更加符合在长程多轮对话的应用场景。
偏好数据集
CValues
地址:https://github.com/X-PLUG/CValues
数据集说明:该项目开源了数据规模为145k的价值对齐数据集,该数据集对于每个prompt包括了拒绝&正向建议(safe and reponsibility) > 拒绝为主(safe) > 风险回复(unsafe)三种类型,可用于增强SFT模型的安全性或用于训练reward模型。
简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,主要包括:吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版,吴恩达《Building Systems with the ChatGPT API》课程中文版,吴恩达《LangChain for LLM Application Development》课程中文版等。
Introduction: ChatGPT burst into fire, which has opened a key step leading to AGI. This project aims to summarize the open source calories of those ChatGPTs, including large text models, multi -mode and large models, etc., providing some convenience for everyone Полем
简介:This repo aims at recording open source ChatGPT, and providing an overview of how to get involved, including: base models, technologies, data, domain models, training pipelines, speed up techniques, multi-language, multi-modal, and more to go.
简介:This repo record a list of totally open alternatives to ChatGPT.
Awesome-LLM:
地址:https://github.com/Hannibal046/Awesome-LLM
简介:This repo is a curated list of papers about large language models, especially relating to ChatGPT. It also contains frameworks for LLM training, tools to deploy LLM, courses and tutorials about LLM and all publicly available LLM checkpoints and APIs.