Ajuste fino de LLMs incríveis
Bem-vindo à coleção selecionada de recursos para o ajuste fino de Large Language Models (LLMs) como GPT, BERT, RoBERTa e suas inúmeras variantes! Nesta era da inteligência artificial, a capacidade de adaptar modelos pré-treinados a tarefas e domínios específicos tornou-se uma habilidade indispensável para investigadores, cientistas de dados e profissionais de aprendizagem automática.
Grandes modelos de linguagem, treinados em enormes conjuntos de dados, capturam uma ampla gama de conhecimentos e nuances linguísticas. No entanto, para liberar todo o seu potencial em aplicações específicas, é fundamental ajustá-los em conjuntos de dados específicos. Este processo não só melhora o desempenho dos modelos, mas também garante que eles se alinhem com o contexto, a terminologia e os requisitos específicos da tarefa em questão.
Nesta lista incrível, compilamos meticulosamente uma série de recursos, incluindo tutoriais, artigos, ferramentas, estruturas e práticas recomendadas, para ajudá-lo em sua jornada de ajuste fino. Quer você seja um profissional experiente em busca de expandir seus conhecimentos ou um iniciante ansioso para entrar no mundo dos LLMs, este repositório foi projetado para fornecer informações e diretrizes valiosas para agilizar seus esforços.
Índice
- Projetos GitHub
- Artigos e blogs
- Cursos on-line
- Livros
- Artigos de pesquisa
- Vídeos
- Ferramentas e software
- Conferências e Eventos
- Slides e apresentações
- Podcasts
Projetos GitHub
- LlamaIndex?: Uma estrutura de dados para suas aplicações LLM. (23.010 estrelas)
- Pétalas?: Execute LLMs em casa, estilo BitTorrent. Ajuste fino e inferência até 10x mais rápido que o descarregamento. (7768 estrelas)
- LLaMA-Factory: Uma estrutura de ajuste fino LLM fácil de usar (LLaMA-2, BLOOM, Falcon, Baichuan, Qwen, ChatGLM3). (5532 estrelas)
- lit-gpt: Implementação hackeável de LLMs de código aberto de última geração baseados em nanoGPT. Suporta atenção flash, quantização de 4 e 8 bits, ajuste fino de LoRA e adaptador LLaMA, pré-treinamento. Licenciado pelo Apache 2.0. (3469 estrelas)
- H2O LLM Studio: Uma estrutura e GUI sem código para ajuste fino de LLMs. Documentação: https://h2oai.github.io/h2o-llmstudio/ (2880 estrelas)
- Phoenix: Observabilidade e avaliação de IA - Avalie, solucione problemas e ajuste seus modelos LLM, CV e PNL em um notebook. (1596 estrelas)
- Adaptadores LLM: Código para o artigo EMNLP 2023: "Adaptadores LLM: uma família de adaptadores para ajuste fino com eficiência de parâmetros de modelos de linguagem grande". (769 estrelas)
- Platypus: Código para ajuste fino de LLMs da família Platypus usando LoRA. (589 estrelas)
- xtuner: Um kit de ferramentas para ajustar LLM com eficiência (InternLM, Llama, Baichuan, QWen, ChatGLM2). (540 estrelas)
- DB-GPT-Hub: Um repositório que contém modelos, conjuntos de dados e técnicas de ajuste fino para DB-GPT, com o objetivo de melhorar o desempenho do modelo, especialmente em Text-to-SQL, e obter maior desempenho executivo do que GPT-4 em spider eval com 13B LLM usou este projeto. (422 estrelas)
- LLM-Finetuning-Hub: Repositório que contém scripts de ajuste fino e implantação do LLM junto com nossas descobertas de pesquisa. 416
- Finetune_LLMs: repositório para ajuste fino de LLMs casuais. 391
- MFTCoder: estrutura de ajuste fino multitarefa de alta precisão e eficiência para Code LLMs; 业内首个高精度、高效率、多任务、多模型支持、多训练算法,大模型代码能力微调框架. 337
- llmware: Fornece estrutura de desenvolvimento, ferramentas e modelos ajustados baseados em LLM de nível empresarial. 289
- LLM-Kit: plataforma integrada WebUI para LLMs mais recentes | 各大语言模型的全流程工具 WebUI整合包。支持主流大模型API接口和开源模型。支持知识库,数据库,角色扮演, mj文生图,LoRA和全参数微调,数据集制作,live2d等全流程应用工具. 232
- h2o-wizardlm: Implementação de código aberto do WizardLM para transformar documentos em pares Q:A para ajuste fino do LLM. 228
- hcgf: Ajuste fino do modelo gerador de bate-papo humano | LLM. 196
- llm_qlora: Ajustando LLMs usando QLoRA. 136
- impressionante-llm-human-preference-datasets: uma lista selecionada de conjuntos de dados de preferência humana para ajuste fino de LLM, RLHF e avaliação. 124
- llm_finetuning : Wrapper conveniente para ajuste fino e inferência de Large Language Models (LLMs) com diversas técnicas de quantização (GTPQ, bitsandbytes). 114
Artigos e blogs
- Ajustar LLMs em 2024 com Hugging Face: TRL e Flash Atenção?: Esta postagem do blog fornece um guia completo para ajustar LLMs (por exemplo, Llama 2), usando Hugging Face TRL e Flash Attention em GPUs de tamanho consumidor (24 GB).
- Guia completo para ajuste fino de LLM para iniciantes: um guia abrangente que explica o processo de ajuste fino de um modelo pré-treinado para novas tarefas, cobrindo conceitos-chave e fornecendo um exemplo concreto.
- Ajuste fino de modelos de linguagem grande (LLMs): esta postagem do blog apresenta uma visão geral do ajuste fino de LLMs pré-treinados, discutindo conceitos importantes e fornecendo um exemplo prático com código Python.
- Criando um LLM de especialista em domínio: um guia para ajuste fino: um artigo que se aprofunda no conceito de ajuste fino usando a API da OpenAI, apresentando um exemplo de ajuste fino de um grande modelo de linguagem para entender o enredo de uma ópera de Handel.
- Guia para iniciantes em ajuste fino de LLM?: Um guia que cobre o processo de ajuste fino de LLMs, incluindo o uso de ferramentas como QLoRA para configuração e ajuste fino de modelos.
- Gráficos de conhecimento e LLMs: ajuste fino vs. Geração aumentada de recuperação: esta postagem do blog explora as limitações dos LLMs e fornece insights sobre como ajustá-los em conjunto com gráficos de conhecimento.
- Ajuste um LLM em seus dados pessoais: crie um contador de histórias “O Senhor dos Anéis” ✏️: Um artigo que demonstra como treinar seu próprio LLM em dados pessoais, oferecendo controle sobre informações pessoais sem depender do GPT-4 da OpenAI.
- Ajustando um modelo LLM com H2O LLM Studio para gerar instruções Cypher?: Esta postagem do blog fornece um exemplo de ajuste fino de um modelo LLM usando H2O LLM Studio para gerar instruções Cypher, habilitando aplicativos de chatbot com gráficos de conhecimento.
- Ajuste seu próprio modelo Llama 2 em um notebook Colab: uma introdução prática ao ajuste fino do LLM, demonstrando como implementá-lo em um notebook Google Colab para criar seu próprio modelo Llama 2.
- Pensando em ajustar um LLM? Aqui estão três considerações antes de começar: Este artigo discute três ideias a serem consideradas ao ajustar LLMs, incluindo maneiras de melhorar o GPT além do PEFT e LoRA, e a importância de investir recursos com sabedoria.
- Introdução aos LLMs e à IA generativa: Parte 3 - Ajuste Fino do LLM com instruções: Este artigo explora o papel dos LLMs em aplicações de inteligência artificial e fornece uma visão geral de como ajustá-los.
- RAG vs Finetuning - Qual é a melhor ferramenta para impulsionar seu aplicativo LLM - Uma postagem no blog discutindo os aspectos a serem considerados ao construir aplicativos LLM e escolher o método certo para seu caso de uso. ?
- Ajustando um LLM: RLHF e alternativas (Parte I) - Um artigo apresentando métodos alternativos ao RLHF, especificamente Otimização de Preferência Direta (DPO).
- Quando você deve ajustar os LLMs? - Explorar a comparação entre o ajuste fino de LLMs de código aberto e o uso de uma API fechada para consultas LLM em escala. ?
- Ajuste fino de modelos de linguagem grande - Considerando o ajuste fino de modelos de linguagem grande e comparando-o com abordagens de zero e poucos disparos.
- GPT privado: LLM de ajuste fino em dados corporativos - Explorando técnicas de treinamento que permitem o ajuste fino de LLMs em GPUs menores.
- Ajuste o Google PaLM 2 com Scikit-LLM – Demonstrando como ajustar o Google PaLM 2, o LLM mais avançado do Google, usando o Scikit-LLM. ?
- Um mergulho profundo no ajuste fino de grandes modelos de linguagem - Um blog abrangente sobre o ajuste fino de LLMs como GPT-4 e BERT, fornecendo insights, tendências e benefícios.
- Pré-treinamento, ajuste fino e aprendizagem in-contextual em grandes modelos de linguagem - Discutindo os conceitos de pré-treinamento, ajuste fino e aprendizagem in-contexto em LLMs.
- Lista de modelos de linguagem grande ajustados de código aberto - Uma lista selecionada de LLMs ajustados de código aberto que podem ser executados localmente em seu computador. ?
- Guia para profissionais para ajustar LLMs para casos de uso específicos de domínio - Um guia que cobre os principais aprendizados e conclusões sobre o ajuste fino de LLMs para casos de uso específicos de domínio.
- Finetune Llama 3.1 com uma pilha de produção no AWS, GCP ou Azure – um guia e tutorial sobre como ajustar o Llama 3.1 (ou Phi 3.5) em uma configuração de produção projetada para as práticas recomendadas de MLOps. ?
Cursos on-line
- Fundamentos do ajuste fino: revelando o potencial dos LLMs | Udemy: Um curso prático para iniciantes sobre como construir modelos no estilo chatGPT e adaptá-los para casos de uso específicos.
- IA generativa com grandes modelos de linguagem | Coursera: Aprenda os fundamentos da IA generativa com LLMs e como implantá-los em aplicações práticas. Inscreva-se gratuitamente.
- Grandes Modelos de Linguagem: Aplicação através da Produção | edX: Um curso avançado para desenvolvedores, cientistas de dados e engenheiros criarem aplicativos centrados em LLM usando estruturas populares e alcançarem prontidão para produção de ponta a ponta.
- Ajustando Modelos de Linguagem Grande | Projeto guiado do Coursera: um pequeno projeto guiado que cobre conceitos essenciais de ajuste fino e treinamento de grandes modelos de linguagem.
- APIs OpenAI e ChatGPT: ajuste especializado para desenvolvedores | Udemy: Descubra o poder do GPT-3 na criação de soluções de IA conversacional, incluindo tópicos como engenharia imediata, ajuste fino, integração e implantação de modelos ChatGPT.
- Certificado Profissional de Grandes Modelos de Linguagem | edX: Aprenda como construir e produzir aplicativos baseados em Large Language Model (LLM) usando as mais recentes estruturas, técnicas e teoria por trás dos modelos básicos.
- Melhorando o desempenho do seu LLM além do ajuste fino | Udemy: Um curso desenvolvido para líderes empresariais e desenvolvedores interessados em ajustar modelos LLM e explorar técnicas para melhorar seu desempenho.
- Introdução a grandes modelos de linguagem | Coursera: um curso de microaprendizagem de nível introdutório oferecido pelo Google Cloud, que explica os fundamentos dos Large Language Models (LLMs) e seus casos de uso. Inscreva-se gratuitamente.
- Programa | LLM101x | edX: Aprenda como usar incorporações de dados, bancos de dados vetoriais e ajustar LLMs com dados específicos de domínio para aumentar pipelines de LLM.
- Master Class de modelos de aprendizado profundo de ajuste de desempenho | Udemy: Uma aula magistral sobre como ajustar modelos de aprendizado profundo, abordando técnicas para acelerar o aprendizado e otimizar o desempenho.
- Melhores cursos e certificações de grandes modelos de linguagem (LLMs): com curadoria das principais instituições educacionais e líderes do setor, esta seleção de cursos LLMs tem como objetivo fornecer treinamento de qualidade para indivíduos e equipes corporativas que buscam aprender ou melhorar suas habilidades no ajuste fino de LLMs.
- Dominando modelos de linguagem: liberando o poder dos LLMs: Neste curso abrangente, você se aprofundará nos princípios fundamentais da PNL e explorará como os LLMs remodelaram o cenário dos aplicativos de IA. Um guia completo para PNL e LLMs avançados.
- Domínio de LLMs: Guia completo para transformadores e IA generativa: Este curso fornece uma excelente visão geral da história da IA e cobre o ajuste fino dos três principais modelos de LLM: BERT, GPT e T5. Adequado para aqueles interessados em IA generativa, LLMs e aplicações em nível de produção.
- Explorando as tecnologias por trás do ChatGPT, GPT4 e LLMs: O único curso que você precisa para aprender sobre grandes modelos de linguagem como ChatGPT, GPT4, BERT e muito mais. Obtenha insights sobre as tecnologias por trás desses LLMs.
- Introdução Não Técnica a Grandes Modelos de Linguagem: Uma visão geral de grandes modelos de linguagem para indivíduos não técnicos, explicando os desafios existentes e fornecendo explicações simples sem jargões complexos.
- Grandes modelos de linguagem: modelos básicos desde o início: aprofunde-se nos detalhes dos modelos básicos em LLMs, como BERT, GPT e T5. Obtenha uma compreensão dos avanços mais recentes que aprimoram a funcionalidade do LLM.
Livros
- IA generativa com grandes modelos de linguagem – novo curso prático da Deeplearning.ai e AWS
- Um curso prático que ensina como ajustar grandes modelos de linguagem (LLMs) usando modelos de recompensa e aprendizagem por reforço, com foco em IA generativa.
- Da seleção de dados ao ajuste fino: o guia técnico para a construção de modelos LLM
- Um guia técnico que cobre o processo de construção de modelos LLM, desde a seleção de dados até o ajuste fino.
- O livro de receitas do conhecimento LLM: do RAG ao QLoRA, ao ajuste fino e todas as receitas intermediárias!
- Um livro de receitas abrangente que explora vários modelos LLM, incluindo técnicas como Recuperar e Gerar (RAG) e Representação de Linguagem de Consulta (QLoRA), bem como o processo de ajuste fino.
- Princípios para ajuste fino de LLMs
- Um artigo que desmistifica o processo de ajuste fino de LLMs e explora diferentes técnicas, como aprendizagem em contexto, métodos clássicos de ajuste fino, ajuste fino com eficiência de parâmetros e Aprendizagem por Reforço com Feedback Humano (RLHF).
- Da seleção de dados ao ajuste fino: o guia técnico para a construção de modelos LLM
- Um guia técnico que fornece insights sobre a construção e o treinamento de grandes modelos de linguagem (LLMs).
- Modelos práticos de grandes linguagens
- Um livro que aborda os avanços nos sistemas de IA de linguagem impulsionados pelo aprendizado profundo, com foco em grandes modelos de linguagem.
- Ajuste o Llama 2 para geração de texto no Amazon SageMaker JumpStart
- Saiba como ajustar modelos do Llama 2 usando o Amazon SageMaker JumpStart para geração otimizada de diálogos.
- Ajuste rápido e econômico do LLaMA 2 com AWS Trainium
- Uma postagem de blog que explica como obter um ajuste fino rápido e econômico de modelos LLaMA 2 usando o AWS Trainium.
- Ajuste fino - Aprendizado profundo avançado com Python [Livro]: um livro que explora a tarefa de ajuste fino após a tarefa de pré-treinamento em aprendizado profundo avançado com Python.
- The LLM Knowledge Cookbook: From, RAG, to QLoRA, to Fine...: Um guia completo para usar grandes modelos de linguagem (LLMs) para várias tarefas, cobrindo tudo, desde o básico até técnicas avançadas de ajuste fino.
- Guia de início rápido para grandes modelos de linguagem: estratégias e melhores...: Um guia com foco em estratégias e práticas recomendadas para grandes modelos de linguagem (LLMs) como BERT, T5 e ChatGPT, mostrando seu desempenho sem precedentes em várias tarefas de PNL.
- 4. Técnicas avançadas de GPT-4 e ChatGPT - Desenvolvendo aplicativos ...: Um capítulo que se aprofunda em técnicas avançadas para GPT-4 e ChatGPT, incluindo engenharia imediata, aprendizado zero-shot, aprendizado de poucos disparos e detalhes específicos de tarefas. sintonia.
- O que são grandes modelos de linguagem? - LLM AI explicou - AWS: Uma explicação de grandes modelos de linguagem (LLMs), discutindo os conceitos de aprendizado rápido e ajuste fino para melhorar o desempenho do modelo.
Artigos de pesquisa
- Adaptadores LLM: uma família de adaptadores para ajuste fino com eficiência de parâmetros?: Este artigo apresenta adaptadores LLM, uma estrutura fácil de usar que integra vários adaptadores em LLMs para ajuste fino com eficiência de parâmetros (PEFT) em diferentes tarefas.
- Ajuste fino de LLM em dois estágios com menos especialização?: ProMoT, uma estrutura de ajuste fino em dois estágios, aborda a questão da especialização de formato em LLMs por meio do Prompt Tuning com MOdel Tuning, melhorando seu desempenho geral de aprendizagem no contexto.
- Ajustando modelos de linguagem de grandes empresas por meio de raciocínio ontológico?: Este artigo propõe uma arquitetura neurossimbólica que combina modelos de linguagem de grande porte (LLMs) com gráficos de conhecimento empresarial (EKGs) para obter ajuste fino de LLMs específicos de domínio.
- QLoRA: Ajuste fino eficiente de LLMs quantizados?: QLoRA é uma abordagem de ajuste fino eficiente que reduz o uso de memória enquanto preserva o desempenho da tarefa, oferecendo insights sobre modelos de linguagem pré-treinados quantizados.
- Ajuste fino de parâmetros completos para modelos de linguagem grandes com recursos limitados?: Este trabalho apresenta LOMO, uma técnica de otimização de pouca memória, permitindo o ajuste fino de parâmetros completos de LLMs grandes com recursos de GPU limitados.
- LoRA: Adaptação de baixa classificação de modelos de linguagem grande?: LoRA propõe uma metodologia para adaptar grandes modelos pré-treinados a tarefas específicas, injetando matrizes de decomposição de classificação treináveis em cada camada, reduzindo o número de parâmetros treináveis enquanto mantém a qualidade do modelo.
- Aprimorando LLM com ajuste fino evolutivo para geração de resumos de notícias?: Este artigo apresenta um novo paradigma para geração de resumos de notícias usando LLMs, incorporando algoritmos genéticos e poderosos recursos de compreensão de linguagem natural.
- Como as línguas influenciam umas às outras? Estudando o compartilhamento de dados entre idiomas durante o ajuste fino do LLM?: Este estudo investiga o compartilhamento de dados entre idiomas durante o ajuste fino de modelos multilíngues de grandes idiomas (MLLMs) e analisa a influência de diferentes idiomas no desempenho do modelo.
- Ajuste fino de modelos de linguagem com apenas passes de encaminhamento?: MeZO, um otimizador de ordem zero com uso eficiente de memória, permite o ajuste fino de modelos de linguagem grandes enquanto reduz significativamente os requisitos de memória.
- Aprendendo a raciocinar sobre gráficos de cena: um estudo de caso de LLMs de ajuste fino?: Este trabalho explora a aplicabilidade de LLMs GPT-2 no planejamento de tarefas robóticas, demonstrando o potencial de uso de LLMs em cenários de planejamento de tarefas de longo horizonte.
- Ajuste privado de modelos de linguagem grande com: Este artigo explora a aplicação de privacidade diferencial para adicionar garantias de privacidade ao ajuste fino de modelos de linguagem grande (LLMs).
- DISC-LawLLM: Ajustando Modelos de Grandes Linguagens para Sistemas Jurídicos Inteligentes: Este artigo apresenta o DISC-LawLLM, um sistema jurídico inteligente que utiliza LLMs ajustados com capacidade de raciocínio jurídico para fornecer uma ampla gama de serviços jurídicos.
- Ajuste de instrução multitarefa do LLaMa para cenários específicos: R: O artigo investiga a eficácia do ajuste fino do LLaMa, um LLM fundamental, em tarefas específicas de escrita, demonstrando melhoria significativa nas habilidades de escrita.
- Treinar modelos de linguagem para seguir instruções com feedback humano: Este artigo propõe um método para alinhar modelos de linguagem com a intenção do usuário, ajustando-os usando feedback humano, resultando em modelos preferidos a modelos maiores em avaliações humanas.
- Grandes modelos de linguagem podem melhorar a si mesmos: O artigo demonstra que os LLMs podem melhorar suas habilidades de raciocínio por meio do ajuste fino usando soluções autogeradas, alcançando desempenho de última geração sem rótulos de verdade.
- Adotando Grandes Modelos de Linguagem para Aplicações Médicas: Este artigo destaca o potencial de LLMs ajustados em aplicações médicas, melhorando a precisão do diagnóstico e apoiando a tomada de decisões clínicas.
- Dimensionando modelos de linguagem ajustados por instrução: O artigo explora o ajuste fino de instrução em LLMs, demonstrando melhorias significativas no desempenho e generalização para tarefas invisíveis.
- Ajuste fino federado de modelos de linguagem de bilhões de tamanhos: Este trabalho apresenta o FwdLLM, um protocolo de aprendizagem federado projetado para aumentar a eficiência do ajuste fino de grandes LLMs em dispositivos móveis, melhorando a memória e a eficiência de tempo.
- Uma Visão Geral Abrangente de Grandes Modelos de Linguagem: Este artigo fornece uma visão geral do desenvolvimento e das aplicações de grandes modelos de linguagem e suas capacidades de transferência de aprendizagem.
- Ajustando modelos de linguagem para encontrar acordo entre os humanos: O artigo explora o ajuste fino de um grande LLM para gerar declarações de consenso que maximizam a aprovação para um grupo de pessoas com opiniões diversas.
Vídeos
- Introdução aos modelos de linguagem grande por Andrej Karpathy: Esta é uma introdução de 1 hora aos modelos de linguagem grande. O que são, para onde vão, comparações e analogias com os sistemas operacionais atuais e alguns dos desafios relacionados à segurança deste novo paradigma de computação.
- Ajustando o Llama 2 em seu próprio conjunto de dados | Treine um LLM para o seu...: Aprenda como ajustar o modelo Llama 2 em um conjunto de dados personalizado.
- Ajuste fino do LLM com QLoRA em GPU única: Treinamento do Falcon-7b em ...: Este vídeo demonstra o processo de ajuste fino do Falcon 7b LLM usando QLoRA.
- Ajustando um LLM usando PEFT | Introdução à linguagem grande...: Descubra como ajustar um LLM usando PEFT, uma técnica que requer menos recursos.
- LLAMA-2 Open-Source LLM: Ajuste fino personalizado facilitado em um ...: Um guia passo a passo sobre como ajustar o modelo LLama 2 LLM em seu conjunto de dados personalizado.
- Novo curso: Ajuste fino de modelos de linguagem grande - YouTube: Este vídeo apresenta um curso sobre ajuste fino de LLMs, abrangendo seleção de modelos, preparação de dados, treinamento e avaliação.
- P: Como criar um conjunto de dados de instruções para ajustar meu LLM...: Neste tutorial, os iniciantes aprendem sobre o ajuste fino de LLMs, incluindo quando, como e por que fazê-lo.
- Módulo LLM 4: Ajustando e avaliando LLMs | 4.13.1 Caderno...: Uma demonstração de caderno sobre ajuste fino e avaliação de LLMs.
- Ajuste fino/adaptação/personalização do Google LLM - Primeiros passos ...: Comece a ajustar o modelo de linguagem grande PaLM 2 do Google por meio de um guia passo a passo.
- Pré-treinamento vs ajuste fino vs aprendizagem no contexto de LLM (GPT-x ...: Um guia definitivo que explica o pré-treinamento, o ajuste fino e a aprendizagem no contexto de LLMs como GPT-x.
- Como ajustar um LLM com um PDF - Tutorial Langchain - YouTube: Aprenda como ajustar o GPT LLM da OpenAI para processar documentos PDF usando bibliotecas Langchain e PDF.
- Passo a passo do EasyTune - YouTube - Um passo a passo de ajuste fino do LLM com QLoRA em uma única GPU usando Falcon-7b.
- Desbloqueando o potencial das aulas do ChatGPT em treinamento e multa ... - O ALUNO apresenta as instruções de ajuste fino e aprendizagem contextual de LLMs com símbolos.
- AI News: Criando LLMs sem código! - YouTube - Maya Akim discute os 5 principais casos de uso de ajuste fino do LLM que você precisa conhecer.
- Os 5 principais casos de uso de ajuste fino de LLM que você precisa conhecer - YouTube - Um vídeo detalhado destacando os 5 principais casos de uso de ajuste fino de LLM com links adicionais para exploração adicional.
- clip2 llm emory - YouTube - Aprenda como ajustar o Llama 2 em seu próprio conjunto de dados e treinar um LLM para seu caso de uso específico.
- A maneira MAIS FÁCIL de ajustar o LLAMA-v2 em uma máquina local! - YouTube - Um guia de vídeo passo a passo que demonstra a maneira mais fácil, simples e rápida de ajustar o LLAMA-v2 em sua máquina local para um conjunto de dados personalizado.
- LLMs de treinamento e ajuste fino: introdução - YouTube - Uma introdução ao treinamento e ajuste fino de LLMs, incluindo conceitos importantes e o Desafio de Eficiência NeurIPS LLM.
- Ajustando LLMs com PEFT e LoRA - YouTube - Um vídeo abrangente que explora como usar PEFT para ajustar qualquer modelo GPT de estilo decodificador, incluindo os princípios básicos de ajuste fino e upload de LoRA.
- Construindo e curadoria de conjuntos de dados para ajuste fino de RLHF e LLM ... - Aprenda sobre a construção e curadoria de conjuntos de dados para ajuste fino de RLHF (Aprendizagem por Reforço a partir de Feedback Humano) e LLM (Modelo de Linguagem Grande), com patrocínio da Argilla.
- Ajuste fino do LLM (OpenAI GPT) com dados personalizados em Python - YouTube - Explore como estender o LLM (OpenAI GPT) ajustando-o com um conjunto de dados personalizado para fornecer perguntas e respostas, resumo e outras funções semelhantes ao ChatGPT.
Ferramentas e software
- Ajuste eficiente LLaMA: Estrutura de ajuste fino LLM fácil de usar (LLaMA-2, BLOOM, Falcon).
- H2O LLM Studio: Framework e GUI sem código para ajuste fino de LLMs.
- PEFT: Métodos de ajuste fino com eficiência de parâmetros (PEFT) para adaptação eficiente de modelos de linguagem pré-treinados para aplicativos downstream.
- Modelo semelhante ao ChatGPT: execute um modelo rápido semelhante ao ChatGPT localmente no seu dispositivo.
- Pétalas: execute grandes modelos de linguagem como o BLOOM-176B de forma colaborativa, permitindo carregar uma pequena parte do modelo e formar equipes com outras pessoas para inferência ou ajuste fino. ?
- NVIDIA NeMo: um kit de ferramentas para construir modelos de IA conversacional de última geração e projetado especificamente para Linux.
- H2O LLM Studio: Uma ferramenta GUI de estrutura e sem código para ajuste fino de modelos de linguagem grandes no Windows. ?️
- Ludwig AI: Uma estrutura de baixo código para construir LLMs personalizados e outras redes neurais profundas. Treine facilmente LLMs de última geração com um arquivo de configuração YAML declarativo. ?
- bert4torch: Uma implementação elegante de transformadores PyTorch. Carregue vários pesos de modelos grandes de código aberto para raciocínio e ajuste fino.
- Alpaca.cpp: execute um modelo rápido do tipo ChatGPT localmente no seu dispositivo. Uma combinação do modelo básico LLaMA e uma reprodução aberta do Stanford Alpaca para ajuste fino de instrução. ?
- promptfoo: Avalie e compare resultados do LLM, capture regressões e melhore os prompts usando avaliações automáticas e entradas representativas do usuário.
Conferências e Eventos
- Conversa ML/AI: IA neuro-simbólica - uma alternativa ao LLM - Este encontro discutirá a experiência com o ajuste fino de LLMs e explorará a IA neuro-simbólica como uma alternativa.
- AI Dev Day - Seattle, segunda-feira, 30 de outubro de 2023, 17h - Uma palestra técnica sobre observabilidade LLM eficaz e oportunidades de ajuste fino usando pesquisa de similaridade vetorial.
- Eventos DeepLearning.AI - Uma série de eventos, incluindo a mitigação de alucinações de LLM, ajuste fino de LLMs com PyTorch 2.0 e ChatGPT e programas de educação de IA.
- AI Dev Day - Nova York, quinta-feira, 26 de outubro de 2023, 17h30 - Palestras técnicas sobre as melhores práticas em aplicativos GenAI e o uso de LLMs para notificações personalizadas em tempo real.
- Chat LLMs e agentes de IA - Use Gen AI para construir sistemas e agentes de IA - Um evento com foco em LLMs, agentes de IA e dados em cadeia, com oportunidades de interação por meio de chat de evento.
- NYC AI/LLM/ChatGPT Developers Group - Palestras/workshops técnicos regulares para desenvolvedores interessados em IA, LLMs, ChatGPT, PNL, ML, Dados, etc.
- Aproveitando LLMs para dados corporativos, terça-feira, 14 de novembro de 2023, 14h - Mergulhe em estratégias essenciais de LLM adaptadas para aplicativos de dados não públicos, incluindo engenharia e recuperação imediatas.
- Bellevue Applied Machine Learning Meetup - Um encontro com foco em técnicas aplicadas de aprendizado de máquina e no aprimoramento das habilidades de cientistas de dados e profissionais de ML.
- AI & Prompt Engineering Meetup Munique, Do., 5. Out. 2023, 18:15 - Apresente o H2O LLM Studio para ajustar LLMs e reúna entusiastas de IA de diversas origens.
- Seattle AI/ML/Data Developers Group - Tech fala sobre avaliação de agentes LLM e aprendizado de AI/ML/Data por meio da prática.
- Dojo de Ciência de Dados - DC | Meetup: Este é um grupo Meetup baseado em DC para profissionais de negócios interessados em ensinar, aprender e compartilhar conhecimento e compreensão da ciência de dados.
- Encontre eventos e grupos de ciência de dados em Dubai, AE: Descubra eventos e grupos de ciência de dados em Dubai, AE, para se conectar com pessoas que compartilham seus interesses.
- AI Meetup (presencial): IA generativa e LLMs - Halloween Edition: Participe deste encontro de IA para uma palestra técnica sobre IA generativa e modelos de linguagem grande (LLMs), incluindo ferramentas de código aberto e práticas recomendadas.
- ChatGPT Unleashed: Demonstração ao vivo e práticas recomendadas para PNL: Este evento online explora hacks de ajuste fino para modelos de linguagem grande e mostra as aplicações práticas de ChatGPT e LLMs.
- Encontre eventos e grupos de ciência de dados em Pune, IN: Explore eventos e grupos on-line ou presenciais relacionados à ciência de dados em Pune, IN.
- Grupo de desenvolvedores de IA/ML/dados DC | Meetup: Este grupo tem como objetivo reunir entusiastas de IA na área de DC para aprender e praticar tecnologias de IA, incluindo IA, aprendizado de máquina, aprendizado profundo e ciência de dados.
- Grupo de desenvolvedores Boston AI/LLMs/ChatGPT | Meetup: Junte-se a este grupo em Boston para aprender e praticar tecnologias de IA como LLMs, ChatGPT, aprendizado de máquina, aprendizado profundo e ciência de dados.
- PNL de Paris | Meetup: Este encontro se concentra em aplicações de processamento de linguagem natural (PNL) em vários campos, discutindo técnicas, pesquisas e aplicações de abordagens de PNL tradicionais e modernas.
- Grupo de desenvolvedores SF AI/LLMs/ChatGPT | Meetup: Conecte-se com entusiastas de IA na área de São Francisco/Bay para aprender e praticar tecnologia de IA, incluindo LLMs, ChatGPT, PNL, aprendizado de máquina, aprendizado profundo e ciência de dados.
- Encontro de IA (presencial): GenAI e LLMs para Saúde: Participe desta palestra técnica sobre a aplicação de LLMs em saúde e aprenda sobre ganhos rápidos no uso de LLMs para tarefas relacionadas à saúde.
Slides e apresentações
- Ajuste fino de LMs grandes: apresentação que discute o processo de ajuste fino de modelos de linguagem grande, como GPT, BERT e RoBERTa.
- LLaMa 2.pptx: Slides apresentando o LLaMa 2, um poderoso sucessor do modelo de linguagem grande desenvolvido pela Meta AI.
- LLM.pdf: Apresentação explorando o papel dos Transformers na PNL, do BERT ao GPT-3.
- Bootcamp de modelos de linguagem grande: slides do Bootcamp cobrindo vários aspectos de modelos de linguagem grande, incluindo treinamento do zero e ajuste fino.
- O LHC explicado pela CNN: Slides explicando o LHC (Large Hadron Collider) usando CNN e modelos de imagem de ajuste fino.
- Usando modelos de linguagem grandes em 10 linhas de código: apresentação demonstrando como usar modelos de linguagem grandes em apenas 10 linhas de código.
- LLaMA-Adapter: Ajuste fino eficiente de modelos de linguagem com atenção de inicialização zero.pdf: Slides discutindo o LLaMA-Adapter, uma técnica eficiente para ajuste fino de modelos de linguagem com atenção de inicialização zero.
- Introdução aos LLMs: Apresentação que fornece uma introdução a grandes modelos de linguagem, incluindo modelos básicos e ajuste fino com pares de conclusão imediata.
- LLM Fine-Tuning (東大松尾研LLM講座 Day5資料) - Palestrante: Slides usados para uma palestra sobre ajuste fino de modelos de linguagem grande, especificamente para o 東大松尾研サマースクール2023.
- Automatize seu trabalho e negócios com ChatGPT #3: Apresentação discutindo os fundamentos do ChatGPT e suas aplicações para automação de trabalhos e tarefas de negócios.
- Desbloqueando o poder da IA generativa An Executive's Guide.pdf - Um guia que explica o processo de ajuste fino de modelos de linguagem grande (LLMs) para adaptá-los às necessidades de uma organização.
- Ajustar e implantar modelos de PNL Hugging Face | PPT - Uma apresentação que fornece insights sobre como construir e implantar modelos LLM usando Hugging Face NLP.
- 大規模言語モデル時代のHuman-in-the-Loop機械学習 - Speaker Deck - Uma apresentação de slides que discute o processo de ajuste fino de modelos de linguagem para encontrar acordo entre humanos com preferências diversas.
- Série AI e ML - Introdução à IA generativa e LLMs | PPT - Uma apresentação que apresenta IA generativa e LLMs, incluindo seu uso em aplicações específicas.
- Geração Aumentada de Recuperação na Prática: GenAI Escalável... - Uma apresentação discutindo casos de uso para IA Generativa, limitações de Modelos de Linguagem Grande e o uso de Geração Aumentada de Recuperação (RAG) e técnicas de ajuste fino.
- Apresentação final do LLM | PPT - Uma apresentação cobrindo a Lei da Agência da Criança e da Família de 2013 e o Princípio do Melhor Interesse no contexto dos LLMs.
- LLM Paradigm Adaptations in Recommender Systems.pdf - Um PDF que explica o processo de ajuste fino e adaptações objetivas em sistemas de recomendação baseados em LLM.
- IA conversacional com modelos de transformadores | PPT - Uma apresentação destacando o uso de modelos de transformadores em aplicações de IA conversacional.
- Índice de lhama | PPT - Uma apresentação sobre a ascensão dos LLMs e a construção de aplicativos baseados em LLM.
- LLaMA-Adapter: Ajuste fino eficiente de modelos de linguagem com atenção de inicialização zero.pdf - Um PDF que discute o ajuste fino eficiente de modelos de linguagem com atenção de inicialização zero usando LLaMA.
Podcasts
- IA prática: aprendizado de máquina, ciência de dados - Tornando a inteligência artificial prática, produtiva e acessível a todos. Participe de discussões animadas sobre IA, aprendizado de máquina, aprendizado profundo, redes neurais e muito mais. Insights acessíveis e cenários do mundo real para iniciantes e profissionais experientes.
- Dissidência Gradiente: Explorando Aprendizado de Máquina, IA, Aprendizado Profundo - Vá aos bastidores para aprender com os líderes do setor sobre como eles estão implementando o aprendizado profundo em cenários do mundo real. Obtenha informações sobre o setor de aprendizado de máquina e mantenha -se atualizado com as últimas tendências.
- Podcast WEAVIATE - Junte -se a Connor Shortn for the Weaviate Podcast Series, apresentando entrevistas com especialistas e discussões sobre tópicos relacionados à IA.
- Espaço latente: o podcast de engenheiro de IA - código, agentes, visão computacional, ciência de dados, AI UX e All Things Software 3.0 - Mergulhe no mundo da engenharia da IA, cobrindo tópicos como geração de código, visão computacional, ciência de dados e os mais recentes avanços em AI UX.
- Aprendizagem não supervisionada - Obtenha informações sobre o cenário de IA em rápido desenvolvimento e seu impacto nos negócios e no mundo. Explore discussões sobre aplicativos, tendências e tecnologias de interrupção da LLM.
- O podcast Twiml AI (anteriormente nesta semana em aprendizado de máquina) - mergulham profundamente em abordagens de ajuste fina usadas nos recursos e limitações da AI, LLM e aprendem com especialistas no campo.
- AI e o futuro do trabalho nos podcasts da Apple: um podcast hospedado por SC Moatti discutindo o impacto da IA no futuro do trabalho.
- AI prática: aprendizado de máquina, ciência de dados: ajuste fino vs rag: este episódio explora a comparação entre ajuste fino e geração aumentada de recuperação em aprendizado de máquina e ciência de dados.
- Aprendizagem não supervisionada nos podcasts da Apple: o episódio 20 apresenta uma entrevista com o antropal CEO Dario Amodei sobre o futuro da AGI e da IA.
- Documentos lidos sobre ai | Podcast no Spotify: Este podcast mantém você atualizado com as últimas tendências e arquiteturas com melhor desempenho no campo da ciência da computação.
- Neste dia no podcast de IA nos podcasts da Apple: cobrindo vários tópicos relacionados à IA, este podcast oferece informações interessantes sobre o mundo da IA.
- Tudo sobre a avaliação de aplicativos LLM // Shahul es // #179 MLOPS: Neste episódio, Shahul ES compartilha sua experiência em avaliação em modelos de código aberto, incluindo insights sobre depuração, solução de problemas e benchmarks.
- Ai Daily on Apple Podcasts: hospedado por Conner, Ethan e Farb, este podcast explora histórias fascinantes relacionadas à IA.
- Vídeos Yannic Kilcher (somente áudio) | Podcast no Spotify: Yannic Kilcher discute artigos de pesquisa de aprendizado de máquina, programação e o impacto mais amplo da IA na sociedade.
- Messwrong com curadoria de podcast | Podcast no Spotify: versão de áudio das postagens compartilhadas no boletim informativo com curadoria LessWrong.
- SAI: O podcast de segurança e IA nos podcasts da Apple: um episódio focado no programa de concessão de segurança cibernética do OpenAI.
Esta versão inicial da lista impressionante foi gerada com a ajuda do incrível gerador da lista. É um pacote Python de código aberto que usa o poder dos modelos GPT para curar e gerar automaticamente pontos de partida para listas de recursos relacionadas a um tópico específico.