AWS-LLM-SageMaker
開発者とソリューションビルダーを対象とするこの実践ワークショップでは、Amazon SageMakerを使用してファンデーションモデル(FM)を活用する方法を紹介します。
この実践では、Genative AI で顧客が最も使用するいくつかの使用パターン GenAI を使用して生産性を向上させ、組織の価値を生み出す技術の例を示します。
これは、電子メールの作成、テキストの要約、質問への回答、チャットボットの構築、画像の作成に役立つ基礎モデルを活用することで達成できます。
AWS Samples Githubデプロイの実践資料ガイド
この練習資料はAWS Samples Githubにデプロイされます。現在の練習資料は、AWS Samples の公式資料よりも常に最新のものになります。
LLM - RAG: Opensearch with SageMaker Endpoint LLM Polyglot
- トピック: LLM - RAG: Opensearch with SageMaker Endpoint LLM Polyglot
- 反映リンク:https://github.com/aws-samples/aws-ai-ml-workshop-jp/tree/master/genai/aws-gen-ai-jp/20_applications/04_rag_finance_opensearch_sllm_workshop
- 最近の反映日:2024.04.25
[チューナー] QLoRA fine-tuning
- トピック: [Tuner] QLoRA fine-tuning
- 反映リンク:https://github.com/aws-samples/aws-ai-ml-workshop-jp/tree/master/genai/aws-gen-ai-jp/30_fine_tune/01-instruction-tuning-peft-qlora
- 最近の反映日:2024.04.18
LLM - RAG: Opensearch with SageMaker Endpoint LLM Ployglot
- Amazon SageMakerとAmazon Opensearchを使用したRAG(Retrieval-Augmented Generation)の実装 - RAG(Retrieval-Augmented Generation)は、情報検索とテキスト生成を組み合わせた革新的なNLPアーキテクチャです。この演習では、RAG が Amazon Opensearch とどのように統合され、外部の信頼できるデータベースやドキュメントを検索するかを強化する方法を簡単に実践していきます。この演習では、SageMaker EndpointとAmazon OpenssearchでEmbeddingデータ入力、SDK、LangChainやFAISSなどのオープンソースソフトウェアを使用して、これらのパターンを実装する実務経験を積むことができます。
[チューナー] QLoRA fine-tuning
Filenames
-
1_prepare-dataset-alpaca-method.ipynb
: instruction データセットからトレーニングデータセットを準備します。各サンプルをトルクナイズする方式です。 -
1_prepare-dataset-chunk-method.ipynb
: instruction データセットからトレーニングデータセットを準備します。すべてのサンプルを集めて、チャンクサイズに分割する方法です。 -
2_local-train-debug-lora.ipynb
:本格的にトレーニングインスタンスで実行する前に、開発環境でいくつかのサンプルデータでデバッグを実行します。すでにファインチューニングに慣れている方は、このハンズオンをスキップして3_sm-train-lora.ipynbを進めてください。 -
3_sm-train-lora.ipynb
:SageMakerトレーニングインスタンスでファインチューニングを実行します。