generative ai cdk constructs samples
1.0.0
此存储库提供示例来演示如何使用 AWS Generative AI CDK Constructs 构建您自己的 Generative AI 解决方案。
使用案例 | 描述 | 类型 | 语言 |
---|---|---|---|
文档浏览器 | 该示例提供了端到端的体验,允许用户将文档提取到知识库中,然后针对这些文档进行总结和提问。 | 后端+前端 | TypeScript 用于后端,Python 用于前端 (Streamlit) |
内容生成 | 此示例提供了端到端体验,允许用户使用 Amazon titan-image-generator-v1 或 stable-diffusion-xl 模型从文本生成图像。 | 后端+前端 | TypeScript 用于后端,Python 用于前端 (Streamlit) |
图片描述 | 此示例提供了端到端体验,允许用户为上传的图像生成描述性文本。 | 后端+前端 | TypeScript 用于后端,Python 用于前端 (Streamlit) |
SageMaker JumpStart 模型 | 此示例提供了一个示例应用程序,该应用程序部署了一个 SageMaker 实时终端节点,该终端节点托管由 Amazon JumpStart 的 Meta 开发的 Llama 2 基础模型,以及一个针对该终端节点运行推理请求的 AWS Lambda 函数。 | 后端 | 打字稿 |
SageMaker 拥抱脸模型 | 此示例提供了一个示例应用程序,该应用程序部署托管来自 Hugging Face 的模型 (Mistral 7B) 的 SageMaker 实时终端节点,以及用于针对该终端节点运行推理请求的 AWS Lambda 函数。 | 后端 | 打字稿 |
AWS Inferentia2 上的 SageMaker 拥抱脸部模型 | 此示例提供了一个示例应用程序,该应用程序部署托管来自 Hugging Face 的模型 (Zephyr 7B) 的 SageMaker 实时终端节点,以及用于针对该终端节点运行推理请求的 AWS Lambda 函数。此示例使用 Inferentia 2 作为硬件加速器。 | 后端 | 打字稿 |
SageMaker 自定义端点 | 此示例提供了一个示例应用程序,该应用程序部署了一个 SageMaker 实时终端节点,该终端节点托管一个模型,该模型包含存储在 Amazon Simple Storage Service (S3) 存储桶中的构件,以及一个 AWS Lambda 函数来针对该终端节点运行推理请求。此示例使用 Inferentia2 作为硬件加速器。 | 后端 | 打字稿 |
SageMaker 多模式自定义端点 | 此示例提供了一个示例应用程序,该应用程序部署托管 llava-1.5-7b 的 SageMaker 实时终端节点、存储在 Amazon Simple Storage Service (S3) 存储桶中的构件、自定义推理脚本以及用于运行推理请求的 AWS Lambda 函数那个端点。 | 后端 | 打字稿 |
SageMaker 图像到视频端点 | 此示例提供了一个示例应用程序,该应用程序部署托管 stable-video-diffusion-img2vid-xt-1-1 的 SageMaker 异步终端节点,并将工件存储在 Amazon Simple Storage Service (S3) 存储桶中、自定义推理脚本和 AWS Lambda函数针对该端点运行推理请求。 | 后端 | 打字稿 |
GovCloud PDT 中的 SageMaker 法学硕士 | 此示例提供了一个示例应用程序,该应用程序在 GovCloud PDT 上部署托管 Falcon-40b 的 SageMaker 实时端点。 | 后端 | 打字稿 |
亚马逊基岩代理 | 此示例提供了一个示例应用程序,该应用程序部署由 OpenSearch 无服务器集合和 S3 中的文档支持的 Amazon Bedrock 代理和知识库。它演示了如何使用 Amazon Bedrock CDK 构造。 | 后端 | 打字稿 |
Python 示例 | 该项目展示了 Python 包索引 (PyPI) 中“generative-ai-cdk-constructs”包的使用。 | 后端 | Python |
.NET 示例 | 该项目展示了 nuget 库中“Cdklabs.GenerativeAiCdkConstructs”包的使用。 | 后端 | 。网 |
合同合规分析 | 该项目通过将合同拆分为条款、确定条款类型、根据客户的法律准则评估合规性以及根据合规条款的数量评估整体合同风险来自动分析合同。这是通过利用 Amazon Bedrock 的大型语言模型的工作流程来实现的。 | 后端+前端 | Python 用于后端,TypeScript (React) 用于前端 |
文本转SQL | “Text To SQL”生成式 AI 示例应用程序解决方案使用户能够通过自然语言查询与数据库进行交互,无需丰富的 SQL 知识。该应用程序利用托管在 Amazon Bedrock 上的强大的 Anthropic Claude 3 模型,将自然语言查询无缝转换为可执行的 SQL 语句。 | 后端+前端 | Python 用于后端,TypeScript (React) 用于前端 |
LlamaIndex 基本数据加载器 | “LlamaIndex Basic Data Loader”生成式 AI 示例应用程序解决方案演示了生成式 AI CDK 构造包中的LlamaIndexDataLoader 。默认实现使用 S3 文件或目录加载器,并且可以针对其他 LlamaHub 读取器进行扩展。该解决方案期望 LlamaIndex Documents 成为输出 S3,为下游消费者生成 AI 解决方案做好准备。 | 后端 | Python |
请参阅贡献文档,了解有关对此存储库做出贡献的更多详细信息。