AWS-LLM-SageMaker
这个面向开发人员和解决方案构建者的实践研讨会介绍了如何将基础模型 (FM) 与 Amazon SageMaker 结合使用。
在本实验中,我们将向您展示一些客户最流行的生成式 AI 使用模式,以及使用 GenAI 通过提高生产力为其组织创造价值的技术示例。
这可以通过利用基础模型来实现,这些模型可以帮助您撰写电子邮件、总结文本、回答问题、构建聊天机器人和创建图像。
AWS 示例指南 Github 部署实践材料
本实验材料发布在 AWS Samples Github 上。当前的实践材料始终比官方 AWS 示例材料更新。
LLM - RAG:使用 SageMaker Endpoint 进行 Opensearch LLM 多语言
- 主题:LLM - RAG:使用 SageMaker Endpoint 进行 Opensearch LLM 多语言
- 反思链接:https://github.com/aws-samples/aws-ai-ml-workshop-kr/tree/master/genai/aws-gen-ai-kr/20_applications/04_rag_finance_opensearch_sllm_workshop
- 最新反映日期:2024年4月25日
[Tuner] QLoRA 微调
- 主题:[Tuner] QLoRA 微调
- 反射链接:https://github.com/aws-samples/aws-ai-ml-workshop-kr/tree/master/genai/aws-gen-ai-kr/30_fine_tune/01-instruction-tuning-peft-qlora
- 最新反映日期:2024年4月18日
LLM - RAG:使用 SageMaker Endpoint 进行 Opensearch LLM Ployglot
- 使用 Amazon SageMaker 和 Amazon Opensearch 实际实现 RAG(检索增强生成) - RAG(检索增强生成)是一种创新的 NLP 架构,结合了信息检索和文本生成。在此实践实验室中,您将通过简短的实践练习了解 RAG 如何与 Amazon Opensearch 集成以增强搜索外部可信数据库或文档的过程。在本实验室中,您将通过嵌入数据输入、SDK 以及 LangChain 和 FAISS 等开源软件,获得在 SageMaker Endpoint 和 Amazon Openssearch 中实施这些模式的实践经验。
[Tuner] QLoRA 微调
文件名
1_prepare-dataset-alpaca-method.ipynb
:从指令数据集中准备训练数据集。该方法对每个样本进行标记。-
1_prepare-dataset-chunk-method.ipynb
:从指令数据集中准备训练数据集。该方法将所有样本连接起来并根据块大小进行划分。 -
2_local-train-debug-lora.ipynb
:在认真执行训练实例之前,在开发环境中使用一些示例数据进行调试。如果您已经熟悉微调,请跳过此操作并继续进行 3_sm-train-lora.ipynb。 -
3_sm-train-lora.ipynb
:对 SageMaker 训练实例执行微调。