Cet atelier pratique destiné aux développeurs et aux créateurs de solutions explique comment exploiter les modèles Foundation (FM) avec Amazon SageMaker.
Dans cet atelier, nous vous montrerons certains des modèles d'utilisation de l'IA générative les plus populaires de nos clients et des exemples de technologies qui utilisent GenAI pour générer de la valeur pour leurs organisations en améliorant la productivité.
Ceci peut être réalisé en tirant parti de modèles fondamentaux qui vous aident à rédiger des e-mails, à résumer du texte, à répondre à des questions, à créer des chatbots et à créer des images.
Ce matériel de laboratoire est distribué sur AWS Samples Github. Les supports de pratique actuels sont toujours plus à jour que les supports officiels des échantillons AWS.
1_prepare-dataset-alpaca-method.ipynb
: Préparez un ensemble de données d'entraînement à partir de l'ensemble de données d'instruction. Cette méthode tokenise chaque échantillon.1_prepare-dataset-chunk-method.ipynb
: Préparez un ensemble de données d'entraînement à partir de l'ensemble de données d'instruction. Cette méthode concatène tous les échantillons et les divise en fonction de la taille des morceaux.2_local-train-debug-lora.ipynb
: déboguez avec quelques exemples de données dans l'environnement de développement avant d'effectuer sérieusement sur l'instance de formation. Si vous êtes déjà familiarisé avec le réglage fin, veuillez ignorer cette pratique et passer à 3_sm-train-lora.ipynb.3_sm-train-lora.ipynb
: Effectue un réglage fin sur les instances de formation SageMaker.