AWS-LLM-SageMaker
На этом практическом семинаре для разработчиков и разработчиков решений рассказывается, как использовать базовые модели (FM) с Amazon SageMaker.
В этой лабораторной работе мы покажем вам некоторые из наиболее популярных моделей использования генеративного искусственного интеллекта нашими клиентами и примеры технологий, которые используют GenAI для повышения ценности своих организаций за счет повышения производительности.
Этого можно достичь, используя базовые модели, которые помогают составлять электронные письма, обобщать текст, отвечать на вопросы, создавать чат-ботов и изображения.
Руководство по примерам AWS, практические материалы по развертыванию на Github
Этот лабораторный материал распространяется на сайте AWS Samples Github. Текущие практические материалы всегда более актуальны, чем официальные материалы AWS Samples.
LLM – RAG: открытый поиск с помощью SageMaker Endpoint LLM Polyglot
- Тема: LLM - RAG: Opensearch с SageMaker Endpoint LLM Polyglot
- Ссылка для размышления: https://github.com/aws-samples/aws-ai-ml-workshop-kr/tree/master/genai/aws-gen-ai-kr/20_applications/04_rag_finance_opensearch_sllm_workshop
- Последняя дата отражения: 2024.04.25
[Тюнер] Тонкая настройка QLoRA
- В тему: [Тюнер] Тонкая настройка QLoRA
- Ссылка для размышления: https://github.com/aws-samples/aws-ai-ml-workshop-kr/tree/master/genai/aws-gen-ai-kr/30_fine_tune/01-instruction-tuning-peft-qlora
- Последняя дата отражения: 2024.04.18.
LLM – RAG: открытый поиск с помощью SageMaker Endpoint LLM Ployglot
- Практическая реализация RAG (дополненная генерация с поиском) с помощью Amazon SageMaker и Amazon Opensearch. RAG (генерация с расширенным поиском) — это инновационная архитектура НЛП, которая сочетает в себе поиск информации и генерацию текста. В ходе этого практического занятия вы научитесь с помощью краткого практического упражнения тому, как RAG интегрируется с Amazon Opensearch для улучшения процесса поиска во внешних доверенных базах данных или документах. В ходе этой лабораторной работы вы получите практический опыт реализации этих шаблонов в SageMaker Endpoint и Amazon Openssearch посредством внедрения ввода данных, SDK и программного обеспечения с открытым исходным кодом, такого как LangChain и FAISS.
[Тюнер] Тонкая настройка QLoRA
Имена файлов
-
1_prepare-dataset-alpaca-method.ipynb
: подготовьте набор обучающих данных из набора данных инструкций. Этот метод токенизирует каждый образец. -
1_prepare-dataset-chunk-method.ipynb
: подготовьте набор обучающих данных из набора данных инструкций. Этот метод объединяет все выборки и делит их по размеру фрагмента. -
2_local-train-debug-lora.ipynb
: выполните отладку с некоторыми примерами данных в среде разработки, прежде чем серьезно приступить к работе с обучающим экземпляром. Если вы уже знакомы с тонкой настройкой, пропустите это практическое занятие и перейдите к 3_sm-train-lora.ipynb. -
3_sm-train-lora.ipynb
: выполняет точную настройку обучающих экземпляров SageMaker.