AWS-LLM-SageMaker
這個開發人員和解決方案建構者的實作研討會介紹如何將基礎模型 (FM) 與 Amazon SageMaker 結合使用。
在本實驗中,我們將向您展示一些客戶最受歡迎的生成式 AI 使用模式,以及使用 GenAI 透過提高生產力為其組織創造價值的技術範例。
這可以透過利用基礎模型來實現,這些模型可以幫助您撰寫電子郵件、總結文字、回答問題、建立聊天機器人和創建圖像。
AWS 範例指南 Github 部署實務材料
本實驗資料發佈在 AWS Samples Github 上。目前的實踐材料始終比官方 AWS 範例材料更新。
LLM - RAG:使用 SageMaker Endpoint 進行 Opensearch LLM 多語言
- 主題:LLM - RAG:使用 SageMaker Endpoint 進行 Opensearch LLM 多語言
- 反思連結:https://github.com/aws-samples/aws-ai-ml-workshop-kr/tree/master/genai/aws-gen-ai-kr/20_applications/04_rag_finance_opensearch_sllm_workshop
- 最新反映日期:2024年4月25日
[Tuner] QLoRA 微調
- 主題:[Tuner] QLoRA 微調
- 反射連結:https://github.com/aws-samples/aws-ai-ml-workshop-kr/tree/master/genai/aws-gen-ai-kr/30_fine_tune/01-instruction-tuning-peft-qlora
- 最新反映日期:2024年4月18日
LLM - RAG:使用 SageMaker Endpoint 進行 Opensearch LLM Ployglot
- 使用 Amazon SageMaker 和 Amazon Opensearch 實際實施 RAG(檢索增強生成) - RAG(檢索增強生成)是一種創新的 NLP 架構,結合了資訊檢索和文字生成。在此實作實驗室中,您將透過簡短的實作練習來了解 RAG 如何與 Amazon Opensearch 整合以增強搜尋外部可信任資料庫或文件的過程。在本實驗室中,您將透過嵌入資料輸入、SDK 以及 LangChain 和 FAISS 等開源軟體,獲得在 SageMaker Endpoint 和 Amazon Openssearch 中實施這些模式的實務經驗。
[Tuner] QLoRA 微調
檔案名稱
1_prepare-dataset-alpaca-method.ipynb
:從指令資料集中準備訓練資料集。此方法對每個樣本進行標記。-
1_prepare-dataset-chunk-method.ipynb
:從指令資料集中準備訓練資料集。此方法將所有樣本連接起來並根據區塊大小進行劃分。 -
2_local-train-debug-lora.ipynb
:在訓練實例上認真執行之前,在開發環境中使用一些範例資料進行偵錯。如果您已經熟悉微調,請跳過此操作並繼續進行 3_sm-train-lora.ipynb。 -
3_sm-train-lora.ipynb
:對 SageMaker 訓練實例執行微調。