
Os melhores recursos de modelo de linguagem do mundo são constantemente atualizados
Verifique mais informações
[Leia online]
Conteúdo
- Dados
- Afinação
- Inferência
- Avaliação
- Uso da experiência
- Rano de base de conhecimento
- Agentes
- Procurar
- Livros
- Curso
- Tutorial
- Papel
- Pontas
Dados
Observação
Aqui é nomeado数据
, mas não há conjunto de dados específico fornecido aqui, mas um método para processar a aquisição de dados em larga escala é fornecido
Sempre acreditamos que é melhor ensinar as pessoas a pescar do que ensinar as pessoas a pescar
- Aotolabel: etiqueta, limpe e enriqueça conjuntos de dados de texto com LLMS.
- Labelllm: A plataforma de anotação de dados de código aberto.
- Data-Juicer: Um sistema de processamento de dados único para tornar os dados de maior qualidade, mais suculentos e mais digestíveis para o LLMS!
- Omniparsser: um analisador de streaming de Golang ETL nativo e biblioteca de transformação para CSV, JSON, XML, EDI, texto, etc.
- Mineru: Mineru é uma ferramenta de extração de dados de alta qualidade e de alta qualidade, suporta a extração de PDF/Página da Web/e-book.
- PDF-Extract-kit: um kit de ferramentas abrangente para extração de conteúdo em PDF de alta qualidade.
- Parsera: Biblioteca leve para raspar sites com LLMS.
- Sparrow: Sparrow é uma solução inovadora de código aberto para extração e processamento eficiente de dados de vários documentos e imagens.
- Docling: Transforme PDF em JSON ou Markdown com facilidade e velocidade.
- Modelo de OCR de OCR2.0: OCR.
- Descontaminador LLM: repensando a referência e a contaminação para modelos de idiomas com amostras reformuladas.
- DataTrove: Datatrove é uma biblioteca para processar, filtrar e desduplicar os dados de texto em uma escala muito grande.
- LLM-Swarm: Gere grandes conjuntos de dados sintéticos como a Cosmopedia.
- Distilabel: Distilabel é uma estrutura para dados sintéticos e feedback de IA para engenheiros que precisam de pipelines rápidos, confiáveis e escaláveis com base em trabalhos de pesquisa verificados.
- Criador de linha-pípela comum: o criador de pipeline de rastreamento comum.
- Apresentado: Detecte e extraia tabelas para Markdown e CSV.
- Zerox: Zero Shot PDF OCR com GPT-4O-Mini.
- DOCLAYOUT-YOLO: Aprimorando a análise de layout de documentos por meio de diversos dados sintéticos e percepção adaptativa global-local.
- Tensorzero: Faça os LLMs melhorarem através da experiência.
- PromptWright: Gere grandes dados sintéticos usando um LLM local.
- PDF-Extract-API: Extração de documentos (PDF) e API de Parse usando modelos suportados por OCRS + Ollama de última geração.
- pdf2htmlex: converta pdf em html sem perder texto ou formato.
- Extrato: Extração de dados não estruturados rápida e eficiente.
↥ de volta ao topo
Afinação
- Factorial de lhama: unificar o ajuste fino eficiente de 100+ LLMs.
- UNSLOTH: 2-5X mais rápido 80% menos Memory LLM FineNenetning.
- TRL: Aprendizagem de reforço do transformador.
- Firefly: Firefly: uma grande ferramenta de treinamento de modelos que suporta treinamento dezenas de grandes modelos
- Xtuner: Um kit de ferramentas eficiente, flexível e completo para modelos grandes de ajuste fino.
- Torchtune: Uma biblioteca nativa-pytorch para o ajuste fino LLM.
- Swift: use peft ou parâmetro completo para o Finetune 200+ LLMS ou 15+ mllms.
- Autotrain: Uma nova maneira de treinar, avaliar e implantar automaticamente modelos de aprendizado de máquina de ponta.
- OpenRLHF: Uma estrutura RLHF de fácil e alto desempenho fácil, escalável e de alto desempenho (suporta 70b+ ajuste completo & Lora & Mixtral & Kto).
- Ludwig: estrutura de baixo código para a construção de LLMs personalizados, redes neurais e outros modelos de IA.
- Mistral-Finetune: Uma base de código leve que permite a finetuning com economia de memória e com desempenho dos modelos de Mistral.
- Aikit: Tune fino, construa e implante LLMs de código aberto facilmente!
- H2O-LLMSTUDIO: H2O LLM Studio-Uma estrutura e GUI sem código para LLMs de ajuste fino.
- LitGPT: Preprain, Finetune, implante 20+ LLMs em seus próprios dados.
- LLMBOX: Uma biblioteca abrangente para a implementação do LLMS, incluindo um pipeline de treinamento unificado e uma avaliação abrangente do modelo.
- Paddlenlp: biblioteca NLP e LLM fácil de usar e poderosas.
- Workbench-LlamaFactory: Este é um projeto de exemplo da NVIDIA AI Workbench que demonstra um fluxo de trabalho de desenvolvimento de modelos de ponta a ponta usando llamafactory.
- OpenRLHF: Uma estrutura RLHF fácil de usar, escalável e de alto desempenho (ajuste completo de 70B+ PPO e DPO e Lora e Mixtral iterativo).
- Tinyllava Factory: Uma estrutura de grandes modelos multimodais em pequena escala.
- LLM-Foundry: Código de Treinamento LLM para Modelos de Fundação Databricks.
- LMMS-FineTune: Uma base de código unificada para finetuning (Full, Lora) grandes modelos multimodais, suportando llava-1.5, qwen-vl, llava-interlleave, llava-next-video, phi3-v etc.
- SIMPLIFINE: Simplifine permite invocar o LLM FineNetUning com apenas uma linha de código usando qualquer conjunto de dados ou modelo de face abraça.
- Transformer Lab: Aplicação de código aberto para engenharia avançada de LLM: interagir, treinar, ajustar e avaliar modelos de idiomas grandes no seu próprio computador.
- Liger-Kernel: kernels de Triton eficientes para treinamento de LLM.
- ChatLearn: Uma estrutura de treinamento flexível e eficiente para o alinhamento em larga escala.
- Nanotron: Treinamento minimalista de Modelo de Língua Grande Modelo 3D.
- Ajuste proxy: modelos de linguagem de ajuste por proxy.
- Alinhamento eficaz LLM: kit de ferramentas de alinhamento eficaz LLM.
- Autotrain-advanced
- Meta Lingua: Uma base de código enxuta, eficiente e fácil de pertencer à pesquisa da Research LLMs.
- Vision-llm Alignemnt: Este repositório contém o código para SFT, RLHF e DPO, projetado para LLMs baseados em visão, incluindo os modelos LLAVA e os modelos LLAMA-3.2-VISION.
- Finetune-Qwen2-VL: Iniciar rápido para ajustar ou continuar o modelo QWEN2-VL antes do treino.
↥ de volta ao topo
Inferência
- Ollama: Suba e correndo com Llama 3, Mistral, Gemma e outros grandes modelos de idiomas.
- Open Webui: Webui amigável para o LLMS (anteriormente Ollama Webui).
- Generação de texto Webui: uma interface do usuário graduada para modelos de idiomas grandes.
- Xinference: Uma biblioteca poderosa e versátil projetada para servir a linguagem, reconhecimento de fala e modelos multimodais.
- Langchain: Crie aplicativos de raciocínio com reconhecimento de contexto.
- Llamaindex: uma estrutura de dados para seus aplicativos LLM.
- Lobo-Chat: Uma estrutura de chat de código aberto, Modern-Design/AI.
- Tensorrt-llm: O Tensorrt-Llm fornece aos usuários uma API Python fácil de usar para definir modelos de linguagem grandes (LLMs) e construir mecanismos de tensorratura que contêm otimizações de ponta para executar a inferência com eficiência nas GPUs NVIDIA.
- VLLM: um mecanismo de inferência e serviço de alta eficiência de alta rendimento para LLMS.
- Llamachat: converse com seus modelos de lhama favoritos em um aplicativo nativo do MacOS.
- NVIDIA Chatrtx: Chatrtx é um aplicativo de demonstração que permite personalizar um Modelo de Linguagem GPT (LLM) conectado ao seu próprio conteúdo - doces, notas ou outros dados.
- LM Studio: Descubra, faça o download e execute LLMS local.
- Chat-With-MLX: converse com seus dados nativamente no Apple Silicon usando a estrutura MLX.
- Preço LLM: Encontre rapidamente a API perfeita para modelos de idiomas (LLM) para o seu orçamento! Use nossa ferramenta gratuita para acesso instantâneo aos preços mais recentes dos principais fornecedores.
- Intérprete aberto: uma interface de linguagem natural para computadores.
- Chat-Colama: Um chatbot de código aberto baseado no LLMS.
- Chat-UI: Base de código de código aberto ligando o aplicativo HuggingChat.
- MEMGPT: Crie agentes LLM com memória de longo prazo e ferramentas personalizadas.
- KOBOLDCPP: Uma maneira simples de um arquivo de executar vários modelos GGML e GGUF com a interface do usuário de Koboldai.
- LLMFARM: LLAMA e outros modelos de idiomas grandes no iOS e MacOS offline usando a biblioteca GGML.
- Enchanted: Enchanted Is iOS e MacOS App para conversar com modelos de idiomas privados hospedados, como LLAMA2, Mistral ou Vicuna usando Ollama.
- Flowise: arraste e solte a interface do usuário para construir seu fluxo LLM personalizado.
- Jan: Jan é uma alternativa de código aberto ao ChatGPT que executa 100% offline no seu computador.
- LMDEploy: LMDEPLOP é um kit de ferramentas para compactar, implantar e servir LLMS.
- Routellm: uma estrutura para servir e avaliar roteadores LLM - Salvar custos LLM sem comprometer a qualidade!
- Minference: Acelerar a inferência da LLMS de longo contexto de longa data, o Sparse apropriado e dinâmico calcule a atenção, o que reduz a latência de inferência em até 10x para preenchimento em um A100, mantendo a precisão.
- MEM0: A camada de memória para IA personalizada.
- SGLANG: SGLANG É mais uma estrutura de serviço rápido para grandes modelos de idiomas e modelos de linguagem de visão.
- Airllm: o Airllm otimiza o uso da memória de inferência, permitindo que 70 bilhões de modelos de linguagem executem uma inferência em uma única placa GPU de 4 GB sem quantização, destilação e poda.
- LLMHUB: LLMHUB é uma plataforma de gerenciamento leve projetada para otimizar a operação e a interação com vários modelos de idiomas (LLMS).
- Yuanchat
- Litellm: Ligue para todas as APIs LLM usando o formato Openai [Bedrock, Huggingface, Vertexai, Togetheri, Azure, OpenAi, Groq etc.]
- Guidellm: a Guidellm é uma ferramenta poderosa para avaliar e otimizar a implantação de grandes modelos de idiomas (LLMS).
- LLM-MONGINES: Um mecanismo de inferência unificado para grandes modelos de idiomas (LLMs), incluindo modelos de código aberto (VLLM, SGLANG, juntos) e modelos comerciais (OpenAI, Mistral, Claude).
- OARC: ollama_agent_roll_cage (oarc) é um agente de Python local que funde com modelos de fala da Ollama LLM com Coqui-TTS, Keras Classes, Llava Vision, Whisper Reconhecimento e muito mais para criar um agente de chatbot unificado para automação personalizada local.
- G1: Usando llama-3.1 70b no GROQ para criar cadeias de raciocínio do tipo O1.
- MemoryScope: MemoryScope fornece aos chatbots LLM com recursos de memória de longo prazo poderosos e flexíveis, oferecendo uma estrutura para a construção de essas habilidades.
- Openllm: Execute qualquer LLMS de código aberto, como LLAMA 3.1, Gemma, como terminal da API compatível com o OpenAI na nuvem.
- Infinito: o banco de dados nativo da AI criado para aplicativos LLM, fornecendo uma pesquisa híbrida incrivelmente rápida de incorporação densa, incorporação esparsa, tensor e texto completo.
- Optillm: Um proxy de inferência otimizada compatível com API OpenAI que implementa várias técnicas de ponta que podem melhorar a precisão e o desempenho do LLMS.
- Caixa de lhama: implementação do LLM Inference Server com base no llama.cpp.
↥ de volta ao topo
Avaliação
- LM-Evaluation-Harness: uma estrutura para avaliação de poucos modelos de idiomas.
- OpenCompass: OpenCompass é uma plataforma de avaliação LLM, suportando uma ampla gama de modelos (LLAMA3, MISTRAL, INTERNLM2, GPT-4, LLAMA2, QWEN, GLM, CLAUDE, ETC) mais de 100 conjuntos de dados.
- LLM-Comparator: O Comparador LLM é uma ferramenta de visualização de dados interativa para avaliar e analisar as respostas LLM, desenvolvidas lado a lado.
- Evalcope
- Teas: um kit de ferramentas leve para rastrear e avaliar aplicativos LLM.
- Mixeval: Derivando sabedoria da multidão de misturas de referência da LLM.
- Guia de avaliação: se você já se perguntou como garantir que um LLM tenha um bom desempenho em sua tarefa específica, este guia é para você!
- Referência de Ollama: referência LLM para rendimento via Ollama (LMMS Local LLMS).
- VLMevalkit: Kit de ferramentas de avaliação de código aberto de grandes modelos de linguagem de visão (LVLMS), Suporte ~ 100 VLMs, mais de 40 benchmarks.
LLM API 服务平台
:
- Groq
- Fluxo baseado em silício
- Motor vulcânico
- Wen Xin Qianfan
- DashScope
↥ de volta ao topo
Uso da experiência
- LMSYs Chatbot Arena: Benchmarking LLMS na natureza
- Arena de maquete Sinan Compasssarena
- Langya Bang
- Espaços de Huggingface
- Espaços Wisemodel
- Poe
- Big Model List do irmão Lin
- OpenRouter
- AnyChat
↥ de volta ao topo
Rano de base de conhecimento
- Qualquer coisa: o aplicativo AI all-in-one para qualquer LLM com recursos completos de pano e agente de IA.
- MAXKB: Um sistema de perguntas e respostas da base de conhecimento baseado no Modelo de Linguagem de grande por LLM. Fora da caixa, apoie a incorporação rápida em sistemas de negócios de terceiros
- Ragflow: um motor de pano de código aberto (geração de recuperação de recuperação) com base no entendimento profundo de documentos.
- DIFY: Uma plataforma de desenvolvimento de aplicativos LLM de código aberto.
- FASTGPT: Uma plataforma baseada no conhecimento criada no LLM, oferece recursos de processamento de dados e modelos para fora da caixa, permite a orquestração do fluxo de trabalho através da visualização de fluxo.
- Langchain-Chatchat: uma pergunta e resposta da base de conhecimento local com base em diferentes modelos de idiomas, como Langchain e Chatglm
- Qanything: Pergunta e resposta com base em qualquer coisa.
- Quivr: Um Assistente de Produtividade Pessoal (RAG) ⚡️?
- RAG-GPT: RAG-GPT, Alavancando a tecnologia LLM e RAG, aprende com as bases de conhecimento prejudicadas pelo usuário para fornecer respostas contextualmente relevantes para uma ampla gama de consultas, garantindo uma recuperação de informações rápidas e precisas.
- Verba: Chatbot de geração aumentada de recuperação (RAG) alimentada por tevadores.
- Flashrag: Um kit de ferramentas Python para pesquisa eficiente de trapos.
- Graphrag: um sistema de geração de recuperação baseada em gráficos modular (RAG).
- Lightrag: O Lightrag ajuda os desenvolvedores com a construção e otimização de pipelines Retriever-Agent-Generator.
- GraphRag-Bolama-UI: Graphrag usando o Ollama com UI Gradio e recursos extras.
- Nano-grafrag: uma implementação de graphrag simples e fácil de hack.
- Técnicas de RAG: Este repositório mostra várias técnicas avançadas para os sistemas de geração de recuperação de recuperação (RAG).
- Ragas: Estrutura de avaliação para seus pipelines de geração aumentada de recuperação (RAG).
- KOTAEMN: Um interface do usuário limpo e personalizado de código aberto para conversar com seus documentos.
- Ragapp: A maneira mais fácil de usar o Agentic Rag em qualquer empresa.
- Turborag: Aceleração de geração de recuperação de recuperação com caches KV pré-computados para texto em chunked.
- Lightrag: Geração de recuperação simples e rápida.
- TEN: A estrutura da AI-Agent da próxima geração, a primeira estrutura de agente de IA multimodal verdadeiramente em tempo real do mundo.
- AUTORAG: Ferramenta RAG Automl para encontrar automaticamente um pipeline de RAG óptico para seus dados.
- KAG: KAG é uma estrutura de geração aprimorada pelo conhecimento baseada no mecanismo OpenSPG, que é usado para criar serviços rigorosos de tomada de decisão e recuperação de informações.
- Fast-Graphrag: RAG que se adapta inteligentemente ao seu caso de uso, dados e consultas.
- Pequeno graphrag
- GraphRag do DB-GPT: o Graphrag DB-GPT integra gráficos de conhecimento baseados em triplo e gráficos de estrutura de documentos, enquanto alavancam os mecanismos de recuperação da comunidade e documentos para aprimorar os recursos do RAG, alcançando desempenho comparável, consumindo apenas 50% dos tokens exigidos pelo graphrag da Microsoft.
- CHONKIE: A biblioteca de chunking de pano sem sentido que é leve, com um raio-de-raio e pronto para Chonk seus textos.
↥ de volta ao topo
Agentes
- Autogen: Autogen é uma estrutura que permite o desenvolvimento de aplicativos LLM usando vários agentes que podem conversar entre si para resolver tarefas
- Crewai: Estrutura para orquestres de role-playing e agentes de IA autônomos.
- Coze
- AgentGPT: monte, configure e implante agentes de IA autônomos no seu navegador.
- XAGENT: um agente autônomo LLM para resolução de tarefas complexas.
- MobileAgent: A poderosa família de assistentes de operação de dispositivos móveis.
- LAGENT: Uma estrutura leve para os agentes baseados em Building LLM.
- QWEN-AGENT: Framework e aplicativos do agente criados no QWEN2, com chamadas de funções, intérprete de código, rag e extensão Chrome.
- Linkai: Plataforma de construção inteligente de uma parada de uma parada
- Baidu Appbuilder
- AGENTUNIVERSE: O AgentUniverse é uma estrutura multi-agente LLM que permite que os desenvolvedores criem facilmente aplicativos multi-agentes.
- Lazyllm: Ferramenta de Desenvolvimento para a criação de aplicativos em larga escala multi-agente com código baixo
- AgentsCope: Comece a criar aplicativos multi-agentes com capacidade para o LLM de uma maneira mais fácil.
- MOA: A mistura de agentes (MOA) é uma abordagem nova que aproveita os pontos fortes coletivos de vários LLMs para melhorar o desempenho, alcançando resultados de ponta.
- AGENTE: Estrutura de desenvolvimento de aplicativos de agentes de AI.
- OMAGENT: Uma estrutura de agente multimodal para resolver tarefas complexas.
- Tribo: Nenhuma ferramenta de código para criar e coordenar rapidamente equipes multi-agentes.
- Camel: First LLM Multi-Agent Framework e uma comunidade de código aberto dedicado a encontrar a lei de escala dos agentes.
- PRAONONAI: O aplicativo PraonAi combina autogênio e tripulação ou estruturas semelhantes em uma solução de baixo código para construir e gerenciar sistemas de LLM multi-agente, com foco na simplicidade, personalização e colaboração eficiente de agentes humanos.
- IOA: Uma estrutura de código aberto para agentes de IA colaborativos, permitindo a diversidade, distribuiu agentes para se unir e enfrentar tarefas complexas por meio de conectividade semelhante à Internet.
- Sistema agente-agente: componentes agênticos das APIs de pilha de lhama.
- Agente Zero: o Agente Zero não é uma estrutura de agente predefinida.
- Agentes: Uma estrutura de código aberto para agentes de idiomas autônomos e devolução de dados.
- AgentsCope: Comece a criar aplicativos multi-agentes com capacidade para o LLM de uma maneira mais fácil.
- Fastagência: a maneira mais rápida de trazer fluxos de trabalho com vários agentes para a produção.
- Swarm: Framework para construção, orquestração e implantação de sistemas multi-agentes.
- Agente-S: Uma estrutura de agente aberto que usa computadores como um humano.
↥ de volta ao topo
Procurar
- Opensearch GPT: Clone da SearchGPT / Perplexity, mas personalizado para você.
- MindSearch: uma estrutura multi-agente baseada em LLM do mecanismo de pesquisa da web (como perplexity.ai pro e pesquisagpt).
- nanoperplexityai: a implementação de código aberto mais simples do perplexity.ai.
- Curiosidade: tente criar uma experiência do usuário semelhante a uma perplexidade.
↥ de volta ao topo
Livros
- Modelo de linguagem em larga escala: da teoria à prática
- "Big Language Model"
- "Mockup Hand-on Mockup no LLMS"
- "Agente de IA da mão"
- Construa um grande modelo de linguagem (do zero)
- "Mockup multimodal"
- Manual de IA generativo: um roteiro para recursos de aprendizagem
- Entendendo o aprendizado profundo
- "Livro ilustrado para aprender sobre Transformers & LLMs"
- Building LLMs para produção: Aprimorando a capacidade e a confiabilidade do LLM com solicitação, ajuste fino e trapo
- "Guia prático para grandes modelos de idiomas: prática de aplicativos e implementação de cenários"
- "Modelos de linguagem grande e prática"
- Processamento de linguagem natural: grande teoria e prática de modelos
- "Aprendizagem manual Aprendizagem de reforço"
- "Introdução ao LLM para desenvolvedores"
- "Modelo Básico"
↥ de volta ao topo
Curso
LLM Resources Hub
- Stanford CS224N: Processamento de linguagem natural com aprendizado profundo
- NG: IA generativa para todos
- NG: série de cursos LLM
- Tutorial do ACL 2023: modelos de idiomas e aplicativos baseados em recuperação
- LLM Course: Claro para entrar em grandes modelos de idiomas (LLMS) com roteiros e notebooks colab.
- Microsoft: IA generativa para iniciantes
- Microsoft: Estado do GPT
- Curso de NLP de Huggingface
- Tsinghua NLP Liu Zhiyuan Big Model Open Class
- Stanford CS25: Transformers United V4
- Stanford CS324: grandes modelos de idiomas
- Princeton COS 597G (outono 2022): Compreendendo grandes modelos de linguagem
- Johns Hopkins CS 601.471/671 NLP: modelos auto-supervisionados
- Curso Li Hongyi Genai
- Openai-CookBook: Exemplos e Diretrizes para o uso da API Openai.
- Hands On LLMS: Aprenda sobre a LLM, LLMOPS e o Vector DBS gratuitamente, projetando, treinando e implantando um sistema LLM de consultor financeiro em tempo real.
- Universidade de Waterloo CS 886: Recentes Avançadas em Modelos de Fundação
- Mistral: Introdução com Mistral
- Stanford CS25: Transformers United V4
- Coursera: Projeto Prompt de Aplicativo Chatgpt
- Langgpt: capacitar todos a se tornarem um especialista rápido!
- Mistralai-Cookbook
- Introdução à generativa AI 2024 Spring
- Build Nanogpt: Video+Code Lição sobre a construção de nanogpt do zero.
- LLM101N: Vamos construir um contador de histórias.
- Gráficos de conhecimento para RAG
- LLMS do zero (versão Datawhale)
- OpenRag
- O caminho para Agi
- Andrej Karpathy - Redes Neurais: Zero a Hero
- Visualização interativa do transformador
- Andysingal/LLM Course
- LM-Class
- Google Avançado: IA generativa para desenvolvedores Caminho de aprendizado
- Anthropics: Tutorial interativo de engenharia imediata
- LLMSBook
- Grandes agentes de modelos de idiomas
- Universidade Coere LLM
- LLMS e Transformers
- Visão Smol: receitas para encolher, otimizar e personalizar modelos de visão de ponta.
- Rano multimodal: bate -papo com vídeos
- Nota de entrevista do LLMS
- Rag ++: do POC à produção: Curso Avançado de Rag.
- Pesos e preconceitos AI Academia: Finetuning, construindo com LLMs, saídas estruturadas e mais cursos de LLM.
- Tutoriais e recursos prontos para engenharia e IA
- Aprenda Rag do zero - Python AI Tutorial de um engenheiro de Langchain
- Avaliação LLM: um curso completo
↥ de volta ao topo
Tutorial
- Aprenda grande desenvolvimento de aplicativos de modelo
- Canal de desenvolvedor de IA
- B Estação: Wulidun Tea House
- B Estação: Cheney Muyu
- YTB: AI a qualquer hora
- B Estação: Qi Nini
- Guia de engenharia imediata
- YTB: Ai Super Metamorfose
- B Estação: Comunidade de Inteligência Artificial Techbeat
- B Estação: Huang Yihe
- B Estação: Processamento de linguagem natural de aprendizado profundo
- Visualização LLM
- Zhihu: Humano de pedra crua
- B Estação: Xiao Heihei fala sobre ai
- Estação B: Engenheiro de veículo voltado para a parede
- B Estação: AI Veterana Wenzhe
- Modelos de idiomas grandes (LLMS) com notebooks colab
- YTB: Tecnologia IBM
- YTB: Unify Reading Paper Group
- Chip Huyen
- Quanto vram
- Blog: Science Space (Su Jianlin)
- YTB: Hyung Won Chung
- Blog: Tejaswi Kashyap
- Blog: Blog de Xiaosheng
- Zhihu: YBQ
- Artigos da W&B
- Blog de Huggingface
- Blog: Gbyai
- Blog: Mlabonne
- Llm-ação
- Blog: Lil'log (Oponai)
↥ de volta ao topo
Papel
Observação
? Huggingface diário de papéis, papéis legais, papéis ML explicados
- Hermes-3-Técnico-Relatório
- A lhama 3 rebanho de modelos
- Relatório Técnico de Qwen
- Relatório Técnico QWEN2
- Relatório Técnico QWEN2-VL
- Deepseek LLM: Escalando modelos de linguagem de código aberto com longtermismo
- Deepseek-V2: Um modelo de linguagem forte, econômico e eficiente da mistura de especialistas
- Baichuan 2: Modelos de idiomas em larga escala abertos
- Datacomp-lm: em busca da próxima geração de conjuntos de treinamento para modelos de idiomas
- Olmo: acelerando a ciência dos modelos de linguagem
- MAP-NEO: série de modelos de grande linguagem bilíngues altamente capazes e transparentes
- Tiny LLM chinês: pré-treinamento de um modelo de linguagem grande centrado em chinês
- Relatório Técnico PHI-3: Um modelo de linguagem altamente capaz localmente no seu telefone
- Jamba-1.5: modelos de transformador híbrido-mamba em escala
- Jamba: um modelo de idioma de transformador híbrido-mamba
- Livros didáticos são tudo que você precisa
- Liberte o poder dos dados tsunami: uma pesquisa abrangente sobre avaliação e seleção de dados para ajuste de instrução de
data
de modelos de idiomas - Olmoe: Modelos de idiomas de mistura de experts abertos
- Modelo de papel de fusão
- Relatório Técnico de Baichuan-Omni
- Relatório técnico de 1.5-Pints: Pré-treinamento em dias, não meses-seu modelo de idioma prospera em dados de qualidade
- Relatório Técnico de Alinhamento Baichuan
- Hunyuan-Large: Um modelo MOE de código aberto com 52 bilhões de parâmetros ativados por Tencent
- Molmo e Pixmo: pesos abertos e dados abertos para modelos multimodais de última geração
- Tülu 3: empurrando as fronteiras no modelo de idioma aberto pós-treinamento
↥ de volta ao topo
Pontas
- O que aprendemos em um ano de construção com LLMS (Parte I)
- O que aprendemos em um ano de construção com LLMS (Parte II)
- O que aprendemos em um ano de construção com LLMS (Parte III): estratégia
- Fácil de começar com o Big Language Model (LLM)
- LLMS para classificação de texto: um guia para aprendizado supervisionado
- Classificação de texto não supervisionada: categorizar a linguagem natural com LLMS
- Classificação de texto com LLMS: um resumo dos melhores métodos
- Preço LLM
- Sem graça qualquer LLM com abstração
- Universo Tiny LLM
- Zero-chatgpt
- Zero-Qwen-VL
- Finetune-Qwen2-VL
- MPP-LLAVA
- build_minillm_from_scratch
- Tiny LLM
- Minimind: 3 horas de treinamento Um pequeno parâmetro GPT com apenas 26m, e pelo menos 2G da placa gráfica é necessária para inferir o treinamento de inferência.
- LLM-TRAVEL: Dedicado ao entendimento aprofundado, discussão e implementação de várias tecnologias, princípios e aplicativos relacionados a grandes modelos
- Destilação de conhecimento: Ensinar os LLMs com dados sintéticos
- Parte 1: Métodos para adaptar grandes modelos de linguagem
- Parte 2: para ajustar ou não ajustar
- Parte 3: Como ajustar: Concentre-se em conjuntos de dados eficazes
- Leitor-LM: modelos de idiomas pequenos para limpeza e conversão de HTML em Markdown
- Experiência de construção de aplicativos LLMS por um ano
- LLM Treining-Pretrain
- Pytorch-Llama: Llama 2 Implementado do zero em Pytorch.
- Otimização de preferência para modelos de linguagem de visão com TRL 【Modelo de suporte】
- Modelos de linguagem visual de ajuste fino usando SftTrainer 【Documentos】
- Um guia visual para a mistura de especialistas (MOE)
- Role-playing em grandes modelos de idiomas como chatgpt
- Guia de Treinamento Distribuído: Melhores Práticas e Guias sobre como escrever Código de Treinamento Pytorch distribuído.
- Modelos de bate -papo
- Mais 20 melhores perguntas da entrevista de pano
↥ de volta ao topo
Se você achar este projeto útil para você, cite:
@misc { wang2024llm ,
title = { awesome-LLM-resourses } ,
author = { Rongsheng Wang } ,
year = { 2024 } ,
publisher = { GitHub } ,
journal = { GitHub repository } ,
howpublished = { url{https://github.com/WangRongsheng/awesome-LLM-resourses} } ,
}