Dieser praktische Workshop für Entwickler und Lösungsentwickler stellt vor, wie Sie Foundation Models (FM) mit Amazon SageMaker nutzen können.
In diesem Labor zeigen wir Ihnen einige der beliebtesten Nutzungsmuster unserer Kunden für generative KI und Beispiele für Technologien, die GenAI nutzen, um den Wert für ihre Unternehmen durch eine Verbesserung der Produktivität zu steigern.
Dies kann durch die Nutzung grundlegender Modelle erreicht werden, die Ihnen beim Verfassen von E-Mails, beim Zusammenfassen von Texten, beim Beantworten von Fragen, beim Erstellen von Chatbots und beim Erstellen von Bildern helfen.
Dieses Labormaterial wird auf AWS Samples Github verteilt. Aktuelle Übungsmaterialien sind immer aktueller als die offiziellen AWS-Beispielmaterialien.
1_prepare-dataset-alpaca-method.ipynb
: Bereiten Sie einen Trainingsdatensatz aus dem Anweisungsdatensatz vor. Diese Methode tokenisiert jede Probe.1_prepare-dataset-chunk-method.ipynb
: Bereiten Sie einen Trainingsdatensatz aus dem Anweisungsdatensatz vor. Diese Methode verkettet alle Samples und teilt sie entsprechend der Chunk-Größe auf.2_local-train-debug-lora.ipynb
: Debuggen Sie mit einigen Beispieldaten in der Entwicklungsumgebung, bevor Sie die Trainingsinstanz ernsthaft ausführen. Wenn Sie bereits mit der Feinabstimmung vertraut sind, überspringen Sie diese praktische Übung bitte und fahren Sie mit 3_sm-train-lora.ipynb fort.3_sm-train-lora.ipynb
: Führt eine Feinabstimmung der SageMaker-Trainingsinstanzen durch.