generative ai cdk constructs samples
1.0.0
Este repositório fornece exemplos para demonstrar como criar suas próprias soluções de IA generativa usando AWS Generative AI CDK Constructs.
Caso de uso | Descrição | Tipo | Linguagem |
---|---|---|---|
Explorador de documentos | Este exemplo fornece uma experiência completa que permite ao usuário ingerir documentos em uma base de conhecimento e, em seguida, resumir e fazer perguntas sobre esses documentos. | Back-end + Front-end | TypeScript para back-end, Python para front-end (Streamlit) |
Geração de conteúdo | Este exemplo fornece uma experiência completa que permite ao usuário gerar imagens a partir de texto usando o modelo Amazon titan-image-generator-v1 ou stable stable-diffusion-xl. | Back-end + Front-end | TypeScript para back-end, Python para front-end (Streamlit) |
Descrição da imagem | Este exemplo fornece uma experiência completa que permite ao usuário gerar texto descritivo para imagens carregadas. | Back-end + Front-end | TypeScript para back-end, Python para front-end (Streamlit) |
Modelo SageMaker JumpStart | Este exemplo fornece um aplicativo de exemplo que implanta um endpoint em tempo real do SageMaker que hospeda um modelo básico Llama 2 desenvolvido pela Meta no Amazon JumpStart e uma função AWS Lambda para executar solicitações de inferência nesse endpoint. | Back-end | Texto datilografado |
Modelo SageMaker Abraçando Rosto | Este exemplo fornece um aplicativo de exemplo que implanta um endpoint em tempo real do SageMaker que hospeda um modelo (Mistral 7B) do Hugging Face e uma função AWS Lambda para executar solicitações de inferência nesse endpoint. | Back-end | Texto datilografado |
Modelo SageMaker Hugging Face no AWS Inferentia2 | Este exemplo fornece um aplicativo de exemplo que implanta um endpoint em tempo real do SageMaker que hospeda um modelo (Zephyr 7B) do Hugging Face e uma função AWS Lambda para executar solicitações de inferência nesse endpoint. Este exemplo usa o Inferentia 2 como acelerador de hardware. | Back-end | Texto datilografado |
Endpoint personalizado do SageMaker | Este exemplo fornece um aplicativo de exemplo que implanta um endpoint em tempo real do SageMaker que hospeda um modelo com artefatos armazenados em um bucket do Amazon Simple Storage Service (S3) e uma função AWS Lambda para executar solicitações de inferência nesse endpoint. Este exemplo usa Inferentia2 como acelerador de hardware. | Back-end | Texto datilografado |
Endpoint personalizado multimodal SageMaker | Este exemplo fornece um aplicativo de exemplo que implanta um endpoint em tempo real do SageMaker que hospeda llava-1.5-7b, com artefatos armazenados em um bucket do Amazon Simple Storage Service (S3), um script de inferência personalizado e uma função AWS Lambda para executar solicitações de inferência contra esse ponto final. | Back-end | Texto datilografado |
Imagem do SageMaker para endpoint de vídeo | Este exemplo fornece um aplicativo de exemplo que implanta um endpoint assíncrono do SageMaker que hospeda stable-video-diffusion-img2vid-xt-1-1, com artefatos armazenados em um bucket do Amazon Simple Storage Service (S3), um script de inferência personalizado e um AWS Lambda. função para executar solicitações de inferência nesse endpoint. | Back-end | Texto datilografado |
LLM em SageMaker em GovCloud PDT | Este exemplo fornece um aplicativo de exemplo que implanta um endpoint em tempo real SageMaker hospedando Falcon-40b no GovCloud PDT. | Back-end | Texto datilografado |
Agentes Amazon Bedrock | Este exemplo fornece um aplicativo de exemplo que implanta um agente Amazon Bedrock e uma base de conhecimento apoiados por uma coleção OpenSearch Serverless e documentos no S3. Ele demonstra como usar a construção Amazon Bedrock CDK. | Back-end | Texto datilografado |
Amostras Python | Este projeto mostra a utilização do pacote 'generative-ai-cdk-constructs' do Python Package Index (PyPI). | Back-end | Pitão |
Amostras .NET | Este projeto mostra a utilização do pacote 'Cdklabs.GenerativeAiCdkConstructs' da biblioteca nuget. | Back-end | .LÍQUIDO |
Análise de conformidade de contrato | Este projeto automatiza a análise de contratos dividindo-os em cláusulas, determinando os tipos de cláusulas, avaliando a conformidade em relação às diretrizes legais do cliente e avaliando o risco geral do contrato com base no número de cláusulas em conformidade. Isso é conseguido por meio de um fluxo de trabalho que aproveita modelos de linguagem grande por meio do Amazon Bedrock. | Back-end + Front-end | Python para back-end, TypeScript (React) para front-end |
Texto para SQL | A solução de aplicação de amostra de IA generativa "Text To SQL" permite que os usuários interajam com bancos de dados por meio de consultas em linguagem natural, eliminando a necessidade de amplo conhecimento de SQL. Este aplicativo aproveita o poderoso modelo Anthropic Claude 3, hospedado no Amazon Bedrock, para traduzir perfeitamente consultas de linguagem natural em instruções SQL executáveis. | Back-end + Front-end | Python para back-end, TypeScript (React) para front-end |
Carregador de dados básico LlamaIndex | A solução de aplicativo de amostra de IA generativa "LlamaIndex Basic Data Loader" demonstra o LlamaIndexDataLoader do pacote Generative AI CDK Constructs. A implementação padrão usa o arquivo S3 ou o carregador de diretório e pode ser estendida para outros leitores LlamaHub. A solução espera documentos LlamaIndex em uma saída S3 pronta para soluções de IA geradoras de consumo downstream. | Back-end | Pitão |
Consulte o documento CONTRIBUTING para obter mais detalhes sobre como contribuir para este repositório.