
Лучшие в мире крупные языковые модельные ресурсы постоянно обновляются
Проверьте больше информации
[Читать онлайн]
Содержимое
- Данные
- Тонкая настройка
- Вывод
- Оценка
- Испытать использование
- База знаний тряпка
- Агенты
- Поиск
- Книги
- Курс
- Учебник
- Бумага
- Советы
Данные
Примечание
Здесь называются数据
, но здесь нет конкретного набора данных, но предоставляется метод обработки крупномасштабного сбора данных
Мы всегда считаем, что лучше научить людей рыбачить, чем научить людей, как ловить рыбу
- AotoLabel: метка, чистая и обогащающая текстовые наборы данных с помощью LLMS.
- Labelllm: платформа аннотации данных с открытым исходным кодом.
- Data Juicer: универсальная система обработки данных для обеспечения данных более качественного, сокового и более усваиваемой для LLMS!
- OMNIPARSER: Нативная библиотека потоковой передачи Golang ETL и библиотека преобразования для CSV, JSON, XML, EDI, TEXT и т. Д.
- Mineru: Mineru-это универсальный инструмент извлечения данных с открытым исходным кодом, поддерживает PDF/веб-страницу/электронную книгу.
- PDF-EXTRACT-KIT: комплексный инструментарий для высококачественного извлечения контента PDF.
- Parsera: легкая библиотека для очистки веб-сайтов с LLMS.
- Воробей: Воробей-это инновационное решение с открытым исходным кодом для эффективного извлечения данных и обработки из различных документов и изображений.
- Доклинг: Трансформировать PDF в JSON или Marckdown с легкостью и скоростью.
- Got-OC2.0: модель OCR.
- LLM Decontaminator: переосмысление эталона и загрязнение для языковых моделей с перефразированными образцами.
- DataTrove: DataTrove - это библиотека для обработки, фильтрации и дедупликации текстовых данных в очень большом масштабе.
- LLM-SWAURD: генерируйте большие синтетические наборы данных, такие как Cosmopedia.
- Distilabel: Distilabel - это структура для синтетических данных и обратной связи AI для инженеров, которым нужны быстрые, надежные и масштабируемые трубопроводы на основе проверенных исследовательских работ.
- Common Crawline-Pipeline-Creator: создатель Common Crawl Pipelor.
- В соответствии с DAT: обнаружение и извлечение таблиц в Markdown и CSV.
- Zerox: Zero Shot PDF OCR с GPT-4O-Mini.
- Doclayout-Yolo: повышение анализа макета документов с помощью различных синтетических данных и глобального адаптивного восприятия.
- Tensorzero: Make LLM улучшится с помощью опыта.
- Ramplewright: генерируйте большие синтетические данные, используя локальный LLM.
- PDF-Extract-API: документ (PDF) Извлечение и API PANSE с использованием современных моделей Art Modern OCRS + Ollama.
- PDF2HTMLEX: преобразовать PDF в HTML без потери текста или формата.
- Экстракт: быстрое и эффективное извлечение неструктурированных данных.
↥ Вернуться к вершине
Тонкая настройка
- Лама-Фактория: объединение эффективной тонкой настройки 100+ LLMS.
- USLOTH: в 2-5 раза быстрее на 80% меньше памяти LLM FineNetning.
- TRL: Transformer Atrembirment Learning.
- Firefly: Firefly: большой модельный инструмент обучения, который поддерживает обучение десятков больших моделей
- Xtuner: эффективный, гибкий и полнофункциональный инструментарий для тонкой настройки больших моделей.
- TOCHTUNE: библиотека Native-Pytorch для точной настройки LLM.
- Swift: используйте PEFT или полнопараметры для Finetune 200+ LLMS или 15+ MLLMS.
- Autotrain: новый способ автоматического обучения, оценки и развертывания современных моделей машинного обучения.
- OpenRLHF: простой в использовании, масштабируемой и высокопроизводительной структуре RLHF (поддержка 70B+ полная настройка и Lora & Mixtral & KTO).
- Ludwig: платформа с низким кодом для создания пользовательских LLM, нейронных сетей и других моделей искусственного интеллекта.
- Mistral-FineTune: легкая кодовая база, которая обеспечивает эффективную память и производительность моделей Мистрала.
- Айкит: тонкая настройка, создать и легко развернуть LLMS с открытым исходным кодом!
- H2-LLMStudio: H2O LLM Studio-Framework и GUI без кода для тонкой настройки LLMS.
- LITGPT: Pretrain, Finetune, развертывание 20+ LLMS на ваших собственных данных.
- LLMBOX: Комплексная библиотека для реализации LLMS, включая унифицированный тренировочный конвейер и комплексную оценку модели.
- Paddlenlp: простая в использовании и мощную библиотеку NLP и LLM.
- Workbench-Llamafactory: Это пример Nvidia AI Workbench Project, который демонстрирует сквозняк модельный рабочий процесс с использованием Llamafactory.
- OpenRLHF: простой в использовании, масштабируемой и высокопроизводительной структуре RLHF (70B+ PPO полная настройка и итерационная DPO & Lora & Mixtral).
- Фабрика Tinylylava: структура мелких крупных мультимодальных моделей.
- LLM-Foundry: код обучения LLM для моделей DataBricks Foundation.
- LMMS-FINETUNE: унифицированная кодовая база для крупных мультимодальных моделей Manetuning (Full, Lora), поддерживающая Llava-1,5, QWEN-VL, Llava-Interleave, Llava-Next-Video, PHI3-V и т. Д.
- Simplifine: Simplifine позволяет вам вызвать LLM FineTuning только одной строкой кода, используя любой набор данных или модель обнимающего лица.
- Transformer Lab: Приложение с открытым исходным кодом для Advanced LLM Engineering: взаимодействие, обучение, настраивать и оценивать большие языковые модели на своем компьютере.
- Liger-Kernel: эффективные ядра Triton для обучения LLM.
- Chatlearn: гибкая и эффективная учебная структура для крупномасштабного выравнивания.
- Нанотрон: минималистичная большая языковая модель 3D-параллелизма.
- Прокси -настройка: настройка языковых моделей от прокси.
- Эффективное выравнивание LLM: эффективный инструментарий выравнивания LLM.
- Autotrain-Advanced
- Meta Lingua: Lean, эффективная и простая кодовая база для исследования LLMS.
- Vision-LLM Alignemnt: этот репозиторий содержит код для SFT, RLHF и DPO, разработанный для LLM на основе зрения, включая модели LLAVA и модели Llama-3.2-Vision.
- Finetune-QWEN2-VL: быстрый старт для точной настройки или продолжения модели QWEN2-VL перед поездками.
↥ Вернуться к вершине
Вывод
- Оллама: Вставай и бегай с ламой 3, Мистраль, Джемма и другие крупные языковые модели.
- Open Webui: удобный пользователь Webui для LLMS (ранее Ollama Webui).
- Текст Generation Webui: веб -интерфейс Gradio для больших языковых моделей.
- Xinfere: мощная и универсальная библиотека, предназначенная для обслуживания языка, распознавания речи и мультимодальных моделей.
- Langchain: создайте контекстные приложения для рассуждений.
- LmamainDex: структура данных для ваших приложений LLM.
- Чат доли: с открытым исходным кодом, современный дизайн LLMS/AI Pramework.
- Tensorrt-LLM: TensorRt-LLM предоставляет пользователям простой в использовании Python API для определения крупных языковых моделей (LLMS) и создания двигателей-тензирных, которые содержат современные оптимизации для эффективного выполнения вывода на графических процессорах NVIDIA.
- VLLM: высокопроизводительный и эффективный вывод и сердечный двигатель для LLMS.
- Llamachat: Общайтесь с вашими любимыми моделями Llama в приложении MacOs.
- NVIDIA CHATRTX: CHATRTX - это демонстрационное приложение, которое позволяет персонализировать большую языковую модель GPT (LLM), подключенную к вашему собственному контенту - DOC, примечаниям или другим данным.
- LM Studio: Discovery, скачать и запустить локальные LLMS.
- Chat-with-mlx: Общайтесь с вашими данными назначально на Apple Silicon с помощью MLX Framework.
- Цены на LLM: быстро найдите API идеального крупного языка (LLM) для вашего бюджета!
- Открыть интерпретатор: интерфейс естественного языка для компьютеров.
- Чат-Оллама: чат с открытым исходным кодом, основанный на LLMS.
- CHAT-UI: Открытый кодовой база с открытым исходным исходным исходным исходным исходным исходным кода.
- MEMGPT: Создайте агенты LLM с долговременной памятью и пользовательскими инструментами.
- KOBOLDCPP: простой один файл для запуска различных моделей GGML и GGUF с пользовательским интерфейсом Koboldai.
- LLMFARM: Llama и другие крупные языковые модели на iOS и MacOS Offline с использованием библиотеки GGML.
- Enchanted: Enchanted - это приложение для iOS и MacOS для общения с частными языковыми моделями, такими как Llama2, Mistral или Vicuna, с использованием Ollama.
- Flowize: перетаскивать пользовательский интерфейс для создания индивидуального потока LLM.
- Ян: Ян-альтернатива с открытым исходным кодом Catgpt, которая работает на 100% в автономном режиме на вашем компьютере.
- LMDEPLOY: LMDEPLOY - это инструментарий для сжатия, развертывания и обслуживания LLMS.
- Routellm: структура для обслуживания и оценки маршрутизаторов LLM - сохранить затраты LLM без ущерба для качества!
- Minference: собирается ускорить вывод LLMS LOL-контекста, соответствующий и динамический редкий, рассчитывает внимание, которое снижает задержку вывода на до 10 раз для предварительного заполнения на A100 при сохранении точности.
- MEM0: слой памяти для персонализированного ИИ.
- SGLANG: SGLANG - это еще одна быстрое обслуживание для крупных языковых моделей и моделей языка зрения.
- Airllm: Airllm оптимизирует использование памяти вывода, позволяя 70b крупные языковые модели выполнять вывод на одной карте графического процессора 4 ГБ без квантования, дистилляции и обрезки.
- LLMHUB: LLMHUB - это легкая платформа управления, предназначенная для оптимизации работы и взаимодействия с различными языковыми моделями (LLMS).
- Юанчат
- Litellm: вызовите все API LLM, используя формат Openai [коренная порода, huggingface, vertexai, keelsai, azure, openai, groq и т. Д.]
- Guidellm: Guidellm - это мощный инструмент для оценки и оптимизации развертывания моделей крупных языков (LLMS).
- LLM-двигатели: единый механизм вывода для крупных языковых моделей (LLMS), включая модели с открытым исходным кодом (VLLM, SGLANG, вместе) и коммерческие модели (OpenAI, Mistral, Claude).
- OARC: OLLAMA_AGENT_ROLL_CAGE (OARC)-это локальный агент Python, объединяющий OLLAMA LLM с речевыми моделями Coqui-TTS, классы кераса, видение Llava, распознавание шепота и многое другое для создания единого агента чат-ботов для локальной, индивидуальной автоматизации.
- G1: Использование Llama-3.1 70b на GROQ для создания O1-подобных цепочек рассуждений.
- MemoryScope: MemoryScope предоставляет чат-боты LLM с мощными и гибкими возможностями долговременной памяти, предлагая структуру для создания таких способностей.
- Openllm: запустите любые LLM с открытым исходным кодом, такие как Llama 3.1, Gemma, в качестве конечной точки API OpenAI в облаке.
- Бесконечность: база данных AI-местной данных, созданная для приложений LLM, обеспечивая невероятно быстрый гибридный поиск плотного встраивания, разреженного встраивания, тензора и полнотекстового текста.
- OPTILLM: OpenAI API-совместимый оптимизированный прокси, который реализует несколько современных методов, которые могут повысить точность и производительность LLMS.
- Llama Box: реализация сервера вывода LLM на основе llama.cpp.
↥ Вернуться к вершине
Оценка
- LM-оценка-Harness: структура для нескольких выстрелов в оценке языковых моделей.
- OpenCompass: OpenCompass-это платформа оценки LLM, поддерживающая широкий спектр моделей (Llama3, Mistral, Internlm2, GPT-4, Llama2, Qwen, GLM, Claude и т. Д.) Более 100+ наборов данных.
- LLM-Comparator: Comparator LLM является интерактивным инструментом визуализации данных для оценки и анализа ответов LLM, разработанных, разработанных.
- Evalscope
- Плетение: легкий инструментарий для отслеживания и оценки приложений LLM.
- Mixeval: Получение мудрости толпы из Mlm Benchmark Mixtures.
- Руководство по оценке: Если вы когда -нибудь задумывались, как убедиться, что LLM хорошо выполняет вашу конкретную задачу, это руководство для вас!
- Ollama Benchmark: LLM.
- Vlmevalkit: инструментарий с открытым исходным кодом, инструментарий для больших моделей на языке зрения (LVLMS), поддержка ~ 100 VLMS, 40+ контрольных показателей.
LLM API 服务平台
:
- Гриб
- Поток на основе кремния
- Вулканический двигатель
- Вэнь Синь Цяньфан
- DashScope
↥ Вернуться к вершине
Испытать использование
- Lmsys Chatbot Arena: Benderking LLMS в дикой природе
- Compassarena Sinan Mockup Arena
- Лангеря Банг
- Объединения
- Пространства мудрец
- Поэ
- Большая модель брата Лин
- OpenRouter
- AnyChat
↥ Вернуться к вершине
База знаний тряпка
- Что угодно: приложение All-In-One AI для любого LLM с полномочиями AI и агентом AI.
- MAXKB: Система вопросов и ответов базы знаний, основанная на модели LLM большой языковой модели. Вне коробки, поддерживайте быстрое внедрение в сторонние бизнес-системы
- Ragflow: двигатель с открытым исходным кодом (Getrieval-Augment Generation) на основе глубокого понимания документов.
- DIFY: Интуитивно понятный интерфейс приложения LLM с открытым исходным кодом.
- FASTGPT: платформа, основанная на знаниях, построенная на LLM, предлагает возможности обработки данных и модели для обработки данных, позволяет проводить оркестровку рабочего процесса посредством визуализации потока.
- Langchain Chatchat: Местный вопрос и ответ на местный базы знаний на основе различных крупных языковых моделей, таких как Langchain и Chatglm
- Qanything: Вопрос и ответ на основании чего -либо.
- Quivr: личный помощник по продуктивности (Rag) ⚡?
- RAG-GPT: RAG-GPT, используя технологию LLM и RAG, учится на основаниях знаний, основанных на пользователе, чтобы предоставить контекстуально релевантные ответы для широкого спектра запросов, обеспечивая быстрый и точный поиск информации.
- VERBA: Поиск Augmented Generation (Rag) Чатбот, работающий на Weaviate.
- Flashrag: Python Toolkit для эффективных исследований Rag.
- GraphRAG: модульная система извлечения на основе графиков-аугированного поколения (RAG).
- Lightrag: Lightrag помогает разработчикам как на строительстве, так и оптимизации трубопроводов ретривер-агента.
- Graphrag-ollama-UI: GraphRAG с использованием Ollama с пользовательским интерфейсом Gradio и дополнительными функциями.
- Nano-Graphrag: простая, легкая внедрение графрага.
- Методы RAG: Этот репозиторий демонстрирует различные передовые методы для систем поиска-августа (RAG).
- Ragas: Оценка структура для ваших трубопроводов из поиска дополненного поколения (RAG).
- Kotaemon: Пользовательский пользовательский интерфейс с открытым исходным кодом для общения с вашими документами.
- Ragapp: самый простой способ использовать агентскую тряпку на любом предприятии.
- Turborag: Ускорение поколения из поиска с предварительно вычисленными кВ-кэшами для кусочкового текста.
- Lightrag: простое и быстрое извлечение поколения.
- Ten: Следующая структура AI-Agent, первая в мире по-настоящему в реальном времени, мультимодальная среда AI-агента.
- Autorag: Rag Automl Tool для автоматического поиска оптического Rag Pipeline для ваших данных.
- KAG: KAG-это рамка поколения, поддерживаемая знаниями, основанную на двигателе OpenSPG, которая используется для создания строгих решений и услуг по поиску информации.
- Fast-Graphrag: тряпка, которая разумно адаптируется к вашим варианту использования, данных и запросам.
- Крошечный графраг
- DB-GPT GraphRAG: DB-GPT GraphRAG интегрирует как графики знаний на основе триплета, так и графики структуры документов, используя при этом механизмы поиска сообщества и документов, чтобы улучшить возможности RAG, достигая сопоставимой производительности, потребляя только 50% токенов, требуемых GraphRAG Microsoft.
- Чонки: библиотека безумной тряпки, которая легкая, молниеносная и готовая отдавать ваши тексты.
↥ Вернуться к вершине
Агенты
- Autogen: Autogen - это структура, которая позволяет разработать приложения LLM с использованием нескольких агентов, которые могут общаться друг с другом для решения задач
- Crewai: Структура для организации ролевых игр, автономных агентов AI.
- Костюм
- AgentGPT: сборка, настройка и развертывание автономных агентов ИИ в вашем браузере.
- Xagent: автономный агент LLM для сложного решения задач.
- MobileAgent: мощная помощника по эксплуатации мобильных устройств.
- LAGENT: легкая структура для строительства агентов на основе LLM.
- Qwen-Agent: Agent Framework и приложения, построенные на QWEN2, включающие вызова функций, интерпретатор кода, тряпку и расширение Chrome.
- Linkai: универсальная платформа интеллектуальной строительства AI
- Baidu Appbuilder
- Agentuniverse: Agentuniverse-это многоагентная структура LLM, которая позволяет разработчикам легко создавать многоагентные приложения.
- Lazyllm: инструмент разработки для создания многоагентных крупномасштабных приложений с низким кодом
- Agentscope: Начните строить многоагентные приложения LLM, проще.
- MOA: Смесь агентов (MOA)-это новый подход, который использует коллективные силы множественных LLM для повышения производительности, достигая современных результатов.
- Agarly: Структура разработки приложений AI -агента.
- OMAGENT: мультимодальная среда агента для решения сложных задач.
- Племя: нет инструмента кода для быстрого построения и координации многоагентных команд.
- Camel: First LLM многоагентная структура и сообщество с открытым исходным кодом, посвященное поиску закона масштабирования агентов.
- Presisonai: Приложение Prasonai объединяет автоген и Crewai или аналогичные рамки в низкодоводимое решение для создания и управления многоагентными системами LLM, сосредоточив внимание на простоте, настройке и эффективном сотрудничестве с человеком и агентом.
- IOA: рамка с открытым исходным кодом для совместных агентов искусственного интеллекта, обеспечение разнообразия, распределила агентов для объединения и выполнения сложных задач с помощью интернет-подключения.
- Лама-агентская система: агентские компоненты API-интерфейса лама.
- Agent Zero: Agent Zero не является предопределенным агентом.
- Агенты: рамка с открытым исходным кодом для ориентированных на данные, самоотверждающие автономные языковые агенты.
- Agentscope: Начните строить многоагентные приложения LLM, проще.
- Быстрость: самый быстрый способ привлечь многоагентных рабочих процессов в производство.
- Swarm: Framework для строительства, оркестра и развертывания многоагентных систем.
- Агент-S: Фреймворк с открытым агентом, которая использует компьютеры, как человек.
↥ Вернуться к вершине
Поиск
- OpenSearch GPT: SearchGPT / Clone с недоумением, но персонализирован для вас.
- MindSearch: многоагентная структура веб-поисковой системы на основе LLM (например, одухание.
- nanoperplexityai: самая простая реализация с открытым исходным кодом.
- Любопытство: попробуйте построить недоумение, похожее на пользовательский опыт.
↥ Вернуться к вершине
Книги
- Крупномасштабная языковая модель: от теории к практике
- "Модель большого языка"
- "Рукопадающий макет погрузился в LLM"
- "Рукопадающий агент искусственного интеллекта"
- Создайте большую языковую модель (с нуля)
- "Мультимодальный макет"
- Генеративный справочник искусственного интеллекта: дорожная карта для учебных ресурсов
- Понимание глубокого обучения
- «Иллюстрированная книга, чтобы узнать о трансформаторах и LLM»
- Строительство LLM для производства: повышение способности и надежности LLM с помощью подсказки, тонкой настройки и тряпки
- «Практическое руководство по крупным языковым моделям: практика применения и реализация сценария»
- "Практические большие языковые модели"
- Обработка естественного языка: теория и практика большой модели
- "Обучение ручного обучения обучения"
- «Введение в LLM для разработчиков»
- "Основная модель"
↥ Вернуться к вершине
Курс
LLM Resources Hub
- Stanford CS224N: обработка естественного языка с глубоким обучением
- Нг: Генеративный ИИ для всех
- NG: серия курсов LLM
- ACL 2023 Учебное пособие: языковые модели и приложения на основе поиска
- LLM-курс: курс, чтобы попасть в большие языковые модели (LLMS) с дорожными картами и ноутбуками Colab.
- Microsoft: Generative AI для начинающих
- Microsoft: состояние GPT
- Huggingface NLP курс
- Tsinghua NLP Liu Zhiyuan Team Big Model Open Class
- Стэнфорд CS25: Transformers United V4
- Стэнфорд CS324: модели на больших языках
- Принстон COS 597G (осень 2022): понимание моделей крупных языков
- Johns Hopkins CS 601.471/671 NLP: самоотверженные модели
- Li Hongyi Genai курс
- Openai-Cookbook: примеры и рекомендации по использованию API OpenAI.
- Руки на LLMS: Узнайте о LLM, LLMOPS и Vector DBS бесплатно, разработав, обучая и развернув систему Financial Advisor LLM в реальном времени.
- Университет Ватерлоо CS 886: недавние продвижения по моделям фондов
- Миштраль: Начало работы с Мишстралом
- Стэнфорд CS25: Transformers United V4
- Coursera: проект подачи заявок CHATGPT
- LANGGPT: Расширение прав и возможностей всех стать быстрым экспертом!
- Mistralai-Cookbook
- Введение в генеративный AI 2024 Spring
- Стройте Nanogpt: видео+кодовый урок по созданию Nanogpt с нуля.
- LLM101N: Давайте построим рассказчик.
- Графики знаний для тряпки
- LLMS с нуля (версия DataWhale)
- OpenRag
- Дорога в Аги
- Андрей Карпати - Нейронные сети: ноль для героя
- Интерактивная визуализация трансформатора
- Andysingal/LLM-курс
- LM-класс
- Google Advanced: Generative AI для разработчиков Путь обучения
- Антропоя: быстрое инженерное интерактивное учебное пособие
- LLMSBook
- Агенты с большим языком
- Cohere LLM University
- LLM и трансформаторы
- Smol Vision: рецепты сокращения, оптимизации, настройки передовых моделей зрения.
- Мультимодальная тряпка: болтать с видео
- LLMS Интервью примечание
- Rag ++: от POC до производства: Advanced Rag Course.
- Вес и предвзятость ИИ Академия: создание, строительство с LLMS, структурированные результаты и больше курсов LLM.
- Учебники и ресурсы
- Узнайте тряпку с нуля - Учебник Python AI от инженера Langchain
- Оценка LLM: полный курс
↥ Вернуться к вершине
Учебник
- Узнайте большую модель разработки приложений
- Ай -разработчик канал
- B Станция: Wulidun Tea House
- B Станция: Чейни Мюю
- YTB: AI в любое время
- B Станция: Ци Нини
- Быстрое инженерное руководство
- YTB: AI Super Metamorphose
- B Станция: TechBeat Artificial Intelligence Community
- B Станция: Huang Yihe
- B Станция: Глубокое изучение обработки естественного языка
- Визуализация LLM
- Жиху: сырой камень человек
- B Станция: Сяо Хейхей говорит об искусственном интеллекте
- Станция B: инженер автомобиля, обращенный к стене
- B Станция: Ветеран ИИ Венцхе
- Модели больших языков (LLM) с ноутбуками Colab
- YTB: IBM Technology
- YTB: Unify Reading Paper Group
- Чип Хайен
- Сколько Врам
- Блог: Science Space (Su Jianlin)
- Ytb: Hyung Win Chung
- Блог: Tejaswi Kashyap
- Блог: блог Xiaosheng
- Чжиху: YBQ
- Статьи W & B.
- Блог объятия
- Блог: gbyai
- Блог: Mlabonne
- LLM-действие
- Блог: lil'log (Oponai)
↥ Вернуться к вершине
Бумага
Примечание
? Объединение ежедневных газет, прохладные бумаги, документы ML, объясненные
- Hermes-3-Technical-отчет
- Стадо ламы 3 моделей
- Технический отчет QWEN
- QWEN2 Технический отчет
- QWEN2-VL Технический отчет
- DeepSeek LLM: масштабирование языковых моделей с открытым исходным кодом с долгомрождением
- DeepSeek-V2: сильная, экономичная и эффективная модель смеси экспертов
- Baichuan 2: открытые крупномасштабные языковые модели
- DataComp-LM: в поиске обучающих наборов следующего поколения для языковых моделей
- OLMO: Ускорение науки о языковых моделях
- MAP-neo: очень способный и прозрачный двуязычный серия моделей большой языка
- Китайский крошечный LLM: предварительно подготовка китайской большой языковой модели, ориентированной на китайский центр
- PHI-3 Технический отчет: высокоэффективная языковая модель локально на вашем телефоне
- Джамба-1,5: модели гибридного трансформатора-мамба в масштабе
- Джамба: гибридная языковая модель трансформатора-мамба
- Учебники - это все, что вам нужно
- Выкрытие мощности цунами данных: всесторонний опрос оценки и отбора данных для настройки инструкций языковых моделей
data
- Olmoe: Open Mix-Of Experts Language Models
- Модель слияния бумаги
- Байчуан-Омни технический отчет
- Технический отчет 1,5 пинтов: предварительная подготовка в несколько дней, а не месяцы-ваша языковая модель процветает в данных качества
- Технический отчет о выравнивании Baichuan
- Hunyuan-Large: модель MOE с открытым исходным кодом с 52 миллиардами активированных параметров Tencent
- Molmo и Pixmo: открытые веса и открытые данные для современных мультимодальных моделей
- Tülu 3: Толкание границ в модели на открытом языке после тренировки
↥ Вернуться к вершине
Советы
- Что мы узнали из года строительства с LLMS (часть I)
- Что мы узнали из года строительства с LLMS (часть II)
- Что мы узнали из года наращивания с LLMS (Часть III): стратегия
- Легко начать с модели большого языка (LLM)
- LLMS для текстовой классификации: руководство по контролируемому обучению
- Неконтролируемая классификация текста: классифицировать естественный язык с помощью LLMS
- Текстовая классификация с LLMS: обзор лучших методов
- Ценообразование LLM
- Неценссуар любой LLM с абстракцией
- Крошечная вселенная LLM
- Zero-Chatgpt
- Zero-Qwen-Vl
- Finetune-Qwen2-Vl
- MPP-Llava
- BUILD_MINILLM_FROM_SCRATCH
- Tiny LLM
- Минимул: 3 часа обучения небольшому параметру GPT только с 26 м, и для вывода учебной карты для вывода требуется не менее 2 г -графической карты.
- LLM-Travel: посвящен глубокому пониманию, обсуждению и реализации различных технологий, принципов и приложений, связанных с крупными моделями
- Растилляция знаний: обучение LLM с синтетическими данными
- Часть 1: Методы адаптации моделей крупных языков
- Часть 2: Точная настройка или не настраивать
- Часть 3: Как тонкая настройка: сосредоточиться на эффективных наборах данных
- Читатель-LM: Модели с небольшим языком для очистки и преобразования HTML на Markdown
- Опыт строительства LLMS в течение одного года
- LLM Training-Pretrain
- Pytorch-Llama: Llama 2, внедренная с нуля в Pytorch.
- Оптимизация предпочтений для моделей языка зрения с TRL 【Модель поддержки】
- Модели с тонкой настройкой визуального языка с использованием sfttrainer 【Docs】
- Визуальное руководство по смеси экспертов (МО)
- Ролевая игра в крупных языковых моделях, таких как CHATGPT
- Руководство по распределению обучения: лучшие практики и руководства о том, как писать распределенный код обучения Pytorch.
- Шаблоны чата
- Топ -20+ rag obters Question
↥ Вернуться к вершине
Если вы найдете этот проект полезным для вас, пожалуйста, цитируйте:
@misc { wang2024llm ,
title = { awesome-LLM-resourses } ,
author = { Rongsheng Wang } ,
year = { 2024 } ,
publisher = { GitHub } ,
journal = { GitHub repository } ,
howpublished = { url{https://github.com/WangRongsheng/awesome-LLM-resourses} } ,
}