Bem-vindo ao repositório GitHub para o workshop ODSC sobre LLMOps. Este workshop foi desenvolvido para ajudá-lo a desbloquear todo o potencial dos LLMs por meio de quantização, destilação, ajuste fino, Kubernetes e muito mais!
A maioria desses estudos de caso vem do meu livro: Guia de início rápido para LLMs
Para mais detalhes e para participar do workshop, clique aqui.
Mergulhe fundo na aplicação prática com nossos notebooks abrangentes. Esses cadernos irão guiá-lo passo a passo pelos dois estudos de caso abordados no workshop, permitindo uma experiência de aprendizagem interativa e prática.
Aqui estão os slides do workshop.
Quantizando Llama-3 dinamicamente - Usando bits e bytes para quantizar um modelo em tempo real durante a carga. Investigaremos as diferenças antes e depois da quantização
Veja como carregar uma versão pré-quantizada do Llama para comparar velocidade e uso de memória:
Trabalhando com GGUF (sem GPU)
Trabalhando com GGUF (com GPU)
Avaliando LLMs com Rubricas - Explorando um prompt de rubrica para avaliar resultados generativos
Avaliando o alinhamento (se o tempo permitir) - Vendo como um LLM pode julgar as respostas do agente
Aqui estão alguns cadernos que mencionei durante o workshop, mas não terei tempo de ler:
Se você gostou dos estudos de caso, considere dar ao meu livro uma classificação de 5 estrelas na Amazon, pois isso realmente me ajuda como autor! Para mais detalhes e para participar do workshop, clique aqui.