IA generativa com LLMs
Em IA generativa com grandes modelos de linguagem (LLMs), você aprenderá os fundamentos de como funciona a IA generativa e como implantá-la em aplicativos do mundo real.
Ao fazer este curso, você aprenderá a:
- Compreender profundamente a IA generativa, descrevendo as principais etapas em um ciclo de vida típico de IA generativa baseado em LLM, desde a coleta de dados e seleção de modelo até a avaliação de desempenho e implantação
- Descrever detalhadamente a arquitetura do transformador que alimenta os LLMs, como eles são treinados e como o ajuste fino permite que os LLMs sejam adaptados a uma variedade de casos de uso específicos
- Use leis de escala empírica para otimizar a função objetivo do modelo em relação ao tamanho do conjunto de dados, orçamento de computação e requisitos de inferência
- Aplique treinamento, ajuste, inferência, ferramentas e métodos de implantação de última geração para maximizar o desempenho dos modelos dentro das restrições específicas do seu projeto
- Discuta os desafios e oportunidades que a IA generativa cria para as empresas depois de ouvir histórias de pesquisadores e profissionais do setor
Os desenvolvedores que têm um bom entendimento básico de como funcionam os LLMs, bem como as melhores práticas por trás do treinamento e implantação deles, serão capazes de tomar boas decisões para suas empresas e construir protótipos funcionais mais rapidamente. Este curso apoiará os alunos na construção de intuição prática sobre como utilizar melhor esta nova e excitante tecnologia.
Semana 1
Casos de uso de IA generativa, ciclo de vida do projeto e pré-treinamento de modelo
Objetivos de aprendizagem
- Discuta o modelo de pré-treinamento e o valor do pré-treinamento contínuo versus o ajuste fino
- Defina os termos IA generativa, modelos de linguagem grande, prompt e descreva a arquitetura do transformador que alimenta os LLMs
- Descrever as etapas de um ciclo de vida típico de modelo de IA generativo baseado em LLM e discutir os fatores restritivos que orientam as decisões em cada etapa do ciclo de vida do modelo
- Discuta os desafios computacionais durante o pré-treinamento do modelo e determine como reduzir com eficiência o consumo de memória
- Defina o termo lei de escala e descreva as leis que foram descobertas para LLMs relacionadas ao tamanho do conjunto de dados de treinamento, orçamento de computação, requisitos de inferência e outros fatores
Laboratório 1 – Caso de uso de IA generativa: resumir o diálogo
Questionário da semana 1
Semana 2
Ajustando e avaliando grandes modelos de linguagem
Objetivos de aprendizagem
- Descrever como o ajuste fino de instruções usando conjuntos de dados de prompt pode melhorar o desempenho em uma ou mais tarefas
- Definir o esquecimento catastrófico e explicar as técnicas que podem ser usadas para superá-lo
- Defina o termo Ajuste Fino com Parâmetro Eficiente (PEFT)
- Explique como o PEFT diminui o custo computacional e supera o esquecimento catastrófico
- Explique como o ajuste fino com instruções usando conjuntos de dados imediatos pode aumentar o desempenho do LLM em um ou mais
Laboratório 2 – Ajustar um modelo generativo de IA para resumo de diálogos
Questionário da semana 2
Semana 3
Aprendizagem por reforço e aplicativos baseados em LLM
Objetivos de aprendizagem
- Descrever como o RLHF usa feedback humano para melhorar o desempenho e o alinhamento de grandes modelos de linguagem
- Explicar como os dados coletados de rotuladores humanos são usados para treinar um modelo de recompensa para RLHF
- Definir sugestões de cadeia de pensamento e descrever como elas podem ser usadas para melhorar o raciocínio e as habilidades de planejamento do LLM
- Discutir os desafios que os LLMs enfrentam com os cortes de conhecimento e explicar como as técnicas de recuperação e aumento de informações podem superar esses desafios
Laboratório 3 - Ajuste FLAN-T5 com aprendizado por reforço para gerar resumos mais positivos
Questionário da semana 3