generative ai cdk constructs samples
1.0.0
Dieses Repo enthält Beispiele, die veranschaulichen, wie Sie mit AWS Generative AI CDK Constructs Ihre eigenen generativen KI-Lösungen erstellen.
Anwendungsfall | Beschreibung | Typ | Sprache |
---|---|---|---|
Dokumenten-Explorer | Dieses Beispiel bietet eine End-to-End-Erfahrung, die es einem Benutzer ermöglicht, Dokumente in eine Wissensdatenbank aufzunehmen, sie dann zusammenzufassen und Fragen zu diesen Dokumenten zu stellen. | Backend + Frontend | TypeScript für Backend, Python für Frontend (Streamlit) |
Content-Generierung | Dieses Beispiel bietet eine End-to-End-Erfahrung, die es einem Benutzer ermöglicht, Bilder aus Text mithilfe des Amazon Titan-Image-Generator-v1- oder Stability Stable-Diffusion-XL-Modells zu generieren. | Backend + Frontend | TypeScript für Backend, Python für Frontend (Streamlit) |
Bildbeschreibung | Dieses Beispiel bietet eine End-to-End-Erfahrung, die es einem Benutzer ermöglicht, beschreibenden Text für hochgeladene Bilder zu generieren. | Backend + Frontend | TypeScript für Backend, Python für Frontend (Streamlit) |
SageMaker JumpStart-Modell | Dieses Beispiel stellt eine Beispielanwendung bereit, die einen SageMaker-Echtzeitendpunkt bereitstellt, der ein von Meta von Amazon JumpStart entwickeltes Llama 2-Grundmodell hostet, sowie eine AWS Lambda-Funktion zum Ausführen von Inferenzanforderungen für diesen Endpunkt. | Backend | Typoskript |
SageMaker Hugging Face-Modell | Dieses Beispiel stellt eine Beispielanwendung bereit, die einen SageMaker-Echtzeitendpunkt bereitstellt, der ein Modell (Mistral 7B) von Hugging Face hostet, und eine AWS Lambda-Funktion zum Ausführen von Inferenzanforderungen für diesen Endpunkt. | Backend | Typoskript |
SageMaker Hugging Face-Modell auf AWS Inferentia2 | Dieses Beispiel stellt eine Beispielanwendung bereit, die einen SageMaker-Echtzeitendpunkt bereitstellt, der ein Modell (Zephyr 7B) von Hugging Face hostet, und eine AWS Lambda-Funktion zum Ausführen von Inferenzanforderungen für diesen Endpunkt. Dieses Beispiel verwendet Inferentia 2 als Hardwarebeschleuniger. | Backend | Typoskript |
Benutzerdefinierter SageMaker-Endpunkt | Dieses Beispiel stellt eine Beispielanwendung bereit, die einen SageMaker-Echtzeitendpunkt bereitstellt, der ein Modell mit Artefakten hostet, die in einem Amazon Simple Storage Service (S3)-Bucket gespeichert sind, sowie eine AWS Lambda-Funktion zum Ausführen von Inferenzanforderungen für diesen Endpunkt. Dieses Beispiel verwendet Inferentia2 als Hardwarebeschleuniger. | Backend | Typoskript |
Multimodaler benutzerdefinierter SageMaker-Endpunkt | Dieses Beispiel stellt eine Beispielanwendung bereit, die einen SageMaker-Echtzeitendpunkt bereitstellt, der llava-1.5-7b hostet, mit in einem Amazon Simple Storage Service (S3)-Bucket gespeicherten Artefakten, einem benutzerdefinierten Inferenzskript und einer AWS Lambda-Funktion zum Ausführen von Inferenzanforderungen dieser Endpunkt. | Backend | Typoskript |
SageMaker-Bild-zu-Video-Endpunkt | Dieses Beispiel stellt eine Beispielanwendung bereit, die einen asynchronen SageMaker-Endpunkt bereitstellt, der „stable-video-diffusion-img2vid-xt-1-1“ hostet, mit in einem Amazon Simple Storage Service (S3)-Bucket gespeicherten Artefakten, einem benutzerdefinierten Inferenzskript und einem AWS Lambda Funktion zum Ausführen von Inferenzanforderungen für diesen Endpunkt. | Backend | Typoskript |
LLM auf SageMaker in GovCloud PDT | Dieses Beispiel stellt eine Beispielanwendung bereit, die einen SageMaker-Echtzeitendpunkt bereitstellt, der Falcon-40b auf GovCloud PDT hostet. | Backend | Typoskript |
Amazon Bedrock-Agenten | Dieses Beispiel stellt eine Beispielanwendung bereit, die einen Amazon Bedrock Agent und eine Wissensdatenbank bereitstellt, die von einer OpenSearch Serverless Collection und Dokumenten in S3 unterstützt werden. Es zeigt, wie das Amazon Bedrock CDK-Konstrukt verwendet wird. | Backend | Typoskript |
Python-Beispiele | Dieses Projekt demonstriert die Nutzung des Pakets „generative-ai-cdk-constructs“ aus dem Python Package Index (PyPI). | Backend | Python |
.NET-Beispiele | Dieses Projekt zeigt die Verwendung des Pakets „Cdklabs.GenerativeAiCdkConstructs“ aus der Nuget-Bibliothek. | Backend | .NETTO |
Vertragskonformitätsanalyse | Dieses Projekt automatisiert die Analyse von Verträgen, indem es sie in Klauseln aufteilt, Klauseltypen bestimmt, die Einhaltung der gesetzlichen Richtlinien eines Kunden bewertet und das Gesamtvertragsrisiko basierend auf der Anzahl der konformen Klauseln bewertet. Dies wird durch einen Workflow erreicht, der große Sprachmodelle über Amazon Bedrock nutzt. | Backend + Frontend | Python für Backend, TypeScript (React) für Frontend |
Text zu SQL | Die generative KI-Beispielanwendungslösung „Text To SQL“ ermöglicht Benutzern die Interaktion mit Datenbanken über Abfragen in natürlicher Sprache, sodass keine umfangreichen SQL-Kenntnisse erforderlich sind. Diese Anwendung nutzt das leistungsstarke Anthropic Claude 3-Modell, das auf Amazon Bedrock gehostet wird, um Abfragen in natürlicher Sprache nahtlos in ausführbare SQL-Anweisungen zu übersetzen. | Backend + Frontend | Python für Backend, TypeScript (React) für Frontend |
LlamaIndex Basic DataLoader | Die generative KI-Beispielanwendungslösung „LlamaIndex Basic Data Loader“ demonstriert den LlamaIndexDataLoader aus dem Generative AI CDK Constructs-Paket. Die Standardimplementierung verwendet den S3 File oder Directory Loader und kann für andere LlamaHub Reader erweitert werden. Die Lösung erwartet LlamaIndex-Dokumente in einem Ausgabe-S3, der für nachgelagerte generative KI-Lösungen für Verbraucher bereit ist. | Backend | Python |
Weitere Informationen zum Beitragen zu diesem Repository finden Sie im Dokument CONTRIBUTING.