generative ai cdk constructs samples
1.0.0
Ce référentiel fournit des exemples pour montrer comment créer vos propres solutions d'IA générative à l'aide des constructions CDK AWS Generative AI.
Cas d'utilisation | Description | Taper | Langue |
---|---|---|---|
Explorateur de documents | Cet exemple fournit une expérience de bout en bout qui permet à un utilisateur d'ingérer des documents dans une base de connaissances, puis de résumer et de poser des questions sur ces documents. | Back-end + Front-end | TypeScript pour le backend, Python pour le frontend (Streamlit) |
Génération de contenu | Cet exemple fournit une expérience de bout en bout qui permet à un utilisateur de générer des images à partir de texte à l'aide du modèle Amazon titan-image-generator-v1 ou du modèle de stabilité stable-diffusion-xl. | Back-end + Front-end | TypeScript pour le backend, Python pour le frontend (Streamlit) |
Description des images | Cet exemple fournit une expérience de bout en bout qui permet à un utilisateur de générer un texte descriptif pour les images téléchargées. | Back-end + Front-end | TypeScript pour le backend, Python pour le frontend (Streamlit) |
Modèle SageMaker JumpStart | Cet exemple fournit un exemple d'application qui déploie un point de terminaison en temps réel SageMaker hébergeant un modèle de base Llama 2 développé par Meta à partir d'Amazon JumpStart, ainsi qu'une fonction AWS Lambda pour exécuter des requêtes d'inférence sur ce point de terminaison. | Back-end | Manuscrit |
SageMaker étreignant le visage modèle 3D | Cet exemple fournit un exemple d'application qui déploie un point de terminaison en temps réel SageMaker hébergeant un modèle (Mistral 7B) de Hugging Face, ainsi qu'une fonction AWS Lambda pour exécuter des requêtes d'inférence sur ce point de terminaison. | Back-end | Manuscrit |
Modèle SageMaker Hugging Face sur AWS Inferentia2 | Cet exemple fournit un exemple d'application qui déploie un point de terminaison en temps réel SageMaker hébergeant un modèle (Zephyr 7B) de Hugging Face, ainsi qu'une fonction AWS Lambda pour exécuter des requêtes d'inférence sur ce point de terminaison. Cet exemple utilise Inferentia 2 comme accélérateur matériel. | Back-end | Manuscrit |
Point de terminaison personnalisé SageMaker | Cet exemple fournit un exemple d'application qui déploie un point de terminaison en temps réel SageMaker hébergeant un modèle avec des artefacts stockés dans un compartiment Amazon Simple Storage Service (S3) et une fonction AWS Lambda pour exécuter des requêtes d'inférence sur ce point de terminaison. Cet exemple utilise Inferentia2 comme accélérateur matériel. | Back-end | Manuscrit |
Point de terminaison personnalisé multimodal SageMaker | Cet exemple fournit un exemple d'application qui déploie un point de terminaison en temps réel SageMaker hébergeant llava-1.5-7b, avec des artefacts stockés dans un compartiment Amazon Simple Storage Service (S3), un script d'inférence personnalisé et une fonction AWS Lambda pour exécuter des requêtes d'inférence sur ce point final. | Back-end | Manuscrit |
Image SageMaker vers le point de terminaison vidéo | Cet exemple fournit un exemple d'application qui déploie un point de terminaison asynchrone SageMaker hébergeant stable-video-diffusion-img2vid-xt-1-1, avec des artefacts stockés dans un compartiment Amazon Simple Storage Service (S3), un script d'inférence personnalisé et un AWS Lambda. fonction pour exécuter des requêtes d’inférence sur ce point de terminaison. | Back-end | Manuscrit |
LLM sur SageMaker dans GovCloud PDT | Cet exemple fournit un exemple d'application qui déploie un point de terminaison en temps réel SageMaker hébergeant Falcon-40b sur GovCloud PDT. | Back-end | Manuscrit |
Agents du substrat rocheux amazonien | Cet exemple fournit un exemple d'application qui déploie un agent Amazon Bedrock et une base de connaissances soutenues par une collection sans serveur OpenSearch et des documents dans S3. Il montre comment utiliser la construction Amazon Bedrock CDK. | Back-end | Manuscrit |
Exemples Python | Ce projet présente l'utilisation du package 'generative-ai-cdk-constructs' du Python Package Index (PyPI). | Back-end | Python |
Exemples .NET | Ce projet présente l'utilisation du package « Cdklabs.GenerativeAiCdkConstructs » de la bibliothèque nuget. | Back-end | .FILET |
Analyse de conformité du contrat | Ce projet automatise l'analyse des contrats en les divisant en clauses, en déterminant les types de clauses, en évaluant la conformité aux directives juridiques d'un client et en évaluant le risque global du contrat en fonction du nombre de clauses conformes. Ceci est réalisé grâce à un flux de travail qui exploite des modèles de langage étendus via Amazon Bedrock. | Back-end + Front-end | Python pour le backend, TypeScript (React) pour le frontend |
Texte en SQL | La solution d'exemple d'application d'IA générative « Text To SQL » permet aux utilisateurs d'interagir avec des bases de données via des requêtes en langage naturel, éliminant ainsi le besoin de connaissances approfondies en SQL. Cette application exploite le puissant modèle Anthropic Claude 3, hébergé sur Amazon Bedrock, pour traduire de manière transparente les requêtes en langage naturel en instructions SQL exécutables. | Back-end + Front-end | Python pour le backend, TypeScript (React) pour le frontend |
Chargeur de données de base LlamaIndex | L'exemple de solution d'application d'IA générative « LlamaIndex Basic Data Loader » présente le LlamaIndexDataLoader du package Generative AI CDK Constructs. L'implémentation par défaut utilise le chargeur de fichiers ou de répertoire S3 et peut être étendue pour d'autres lecteurs LlamaHub. La solution attend les documents LlamaIndex dans une sortie S3 prête pour les solutions d'IA générative des consommateurs en aval. | Back-end | Python |
Veuillez vous référer au document CONTRIBUTING pour plus de détails sur la contribution à ce référentiel.