modèle langchain-aws
Ce package contient des modèles de code pour déployer des applications LLM créées avec LangChain sur AWS. Les modèles contiennent à la fois l'infrastructure (code CDK) et le code d'application pour exécuter ces services. À l'heure actuelle, les modèles suivants sont inclus.
- Service Lambda : Un service REST basé sur API Gateway + Lambda, qui peut se connecter à n'importe quelle application frontale pour créer une discussion comme une application demande-réponse. Une application Web de démonstration est incluse pour interagir avec le service déployé.
- Slack Bot : un service REST basé sur API Gateway + Lambda, qui peut traiter les messages Slack en appelant une chaîne LLM et envoyer une réponse au canal Slack sur lequel le bot est installé.
Conditions préalables
- nodejs 18+
- Python3.9+
- boîte à outils aws-cdk (
npm install -g aws-cdk
) - Compte AWS configuré avec des informations d'identification (https://docs.aws.amazon.com/cdk/v2/guide/getting_started.html#getting_started_prerequisites)
- clé API openai enregistrée dans Secrets Manager dans votre compte AWS
- Le nom secret attendu est
api-keys
- La clé openai devrait être stockée avec la clé
openai-api-key
- conda (https://conda.io/projects/conda/en/latest/user-guide/install/index.html)