AWS LLM SageMaker
1.0.0
Este workshop prático para desenvolvedores e criadores de soluções apresenta como aproveitar Foundation Models (FM) com o Amazon SageMaker.
Neste laboratório, mostraremos alguns dos padrões de uso de IA generativa mais populares de nossos clientes e exemplos de tecnologias que usam GenAI para gerar valor para suas organizações, melhorando a produtividade.
Isso pode ser alcançado aproveitando modelos básicos que ajudam você a redigir e-mails, resumir textos, responder perguntas, construir chatbots e criar imagens.
Este material de laboratório é distribuído no AWS Samples Github. Os materiais práticos atuais são sempre mais atualizados do que os materiais oficiais de amostras da AWS.
1_prepare-dataset-alpaca-method.ipynb
: Prepare um conjunto de dados de treinamento a partir do conjunto de dados de instrução. Este método tokeniza cada amostra.1_prepare-dataset-chunk-method.ipynb
: Prepare um conjunto de dados de treinamento a partir do conjunto de dados de instrução. Este método concatena todas as amostras e as divide de acordo com o tamanho do pedaço.2_local-train-debug-lora.ipynb
: Depurar com alguns dados de amostra no ambiente de desenvolvimento antes de executar seriamente as instâncias de treinamento. Se você já está familiarizado com o ajuste fino, pule esta prática e prossiga com 3_sm-train-lora.ipynb.3_sm-train-lora.ipynb
: executa ajuste fino em instâncias de treinamento do SageMaker.