Kube ou faux ? est un mini-jeu divertissant, dans lequel le but du joueur est de deviner correctement si un mot généré par ChatGPT est un terme réel Kubernetes ou inventé.
N'oubliez pas de partager vos résultats sur LinkedIn / Twitter !
Python
npm
Docker
AWS SAM CLI
Brew installer aws/tap/aws-sam-cli
Forkez ce référentiel
Installer les dépendances
installation npm
Ce référentiel comprend les fichiers nécessaires pour exécuter AWS Lambda localement et le déployer sur AWS à l'aide d'un modèle CloudFormation.
Dans template.yml
, fournissez les valeurs des variables d'environnement OPENAI_API_KEY
et OPENAI_MODEL_NAME
.
Créez une couche Lambda locale pour le package openai
Python :
pip install -r exigences.txt -t libs/python
Le Lambda peut être exécuté localement en utilisant sam
:
Sam API de démarrage locale
Cette commande démarre un serveur exécuté dans localhost:3000
. Le résultat de la commande devrait ressembler à ceci :
Mounting GenerateKubernetesTermFunction at http://127.0.0.1:3000/generate [GET] You can now browse to the above endpoints to invoke your functions. You do not need to restart/reload SAM CLI while working on your functions, changes will be reflected instantly/automatically. If you used sam build before running local commands, you will need to re-run sam build for the changes to be picked up. You only need to restart SAM CLI if you update your AWS SAM template 2023-07-20 11:58:51 WARNING: This is a development server. Do not use it in a production deployment. Use a production WSGI server instead. * Running on http://127.0.0.1:3000 2023-07-20 11:58:51 Press CTRL+C to quit
Lorsque Lambda est invoqué via localhost:3000/generate
, d'autres journaux sont affichés :
Invoking lambda.lambda_handler (python3.10) OpenAILambdaLayer is a local Layer in the template Local image is up-to-date Building image..................... Using local image: samcli/lambda-python:3.10-x86_64-b22538ac72603f4028703c3d1. Mounting kube-or-fake/lambda as /var/task:ro,delegated, inside runtime container START RequestId: b1c733b3-8449-421b-ae6a-fe9ac2c86022 Version: $LATEST END RequestId: b1c733b3-8449-421b-ae6a-fe9ac2c86022 REPORT RequestId: b1c733b3-8449-421b-ae6a-fe9ac2c86022
Remarque : Il peut vous être demandé de fournir les informations d'identification de votre machine locale pour permettre à sam
d'interagir avec votre démon Docker local.
Le code Lambda existe dans lambda/lambda.py
, lambda_handler
étant le gestionnaire. N'hésitez pas à explorer avec !
Sachez que l'image du docker Lambda sera construite à chaque appel et qu'en tant que telle, il n'est pas nécessaire de réexécuter sam local start-api
lors de la modification du code Lambda (les modifications apportées à template.yml
nécessitent cependant une réexécution) .
Nous faisons cela en utilisant également sam
:
Sam construire Sam déployer
Suivez le résultat de la commande pour voir où votre nouveau Lambda est créé.
Dans scripts/words.js
, remplacez GENERATOR_URL
par http://127.0.0.1:3000/generate
(en cas d'exécution locale) ou par votre URL Lambda distante.
Ouvrez index.html
sur n’importe quel navigateur et commencez à jouer. S'il est configuré correctement, vous devriez voir les appels Lambda (soit via les journaux locaux, soit CloudWatch).