Kube ou falso? é um minijogo divertido, onde o objetivo do jogador é adivinhar corretamente se uma palavra gerada pelo ChatGPT é um termo real do Kubernetes ou inventado.
Não se esqueça de compartilhar seus resultados no LinkedIn/Twitter!
Pitão
npm
Docker
CLI do AWS SAM
preparar instalação aws/tap/aws-sam-cli
Bifurque este repositório
Instalar dependências
instalação npm
Este repositório inclui os arquivos necessários para executar o AWS Lambda localmente e implantá-lo na AWS usando um modelo CloudFormation.
Em template.yml
, forneça valores para as variáveis de ambiente OPENAI_API_KEY
e OPENAI_MODEL_NAME
.
Crie uma camada Lambda local para o pacote openai
Python:
pip install -r requisitos.txt -t libs/python
O Lambda pode ser executado localmente usando sam
:
sam API inicial local
Este comando inicia um servidor em execução em localhost:3000
. A saída do comando deve ficar assim:
Mounting GenerateKubernetesTermFunction at http://127.0.0.1:3000/generate [GET] You can now browse to the above endpoints to invoke your functions. You do not need to restart/reload SAM CLI while working on your functions, changes will be reflected instantly/automatically. If you used sam build before running local commands, you will need to re-run sam build for the changes to be picked up. You only need to restart SAM CLI if you update your AWS SAM template 2023-07-20 11:58:51 WARNING: This is a development server. Do not use it in a production deployment. Use a production WSGI server instead. * Running on http://127.0.0.1:3000 2023-07-20 11:58:51 Press CTRL+C to quit
Quando o Lambda é invocado por meio de localhost:3000/generate
, mais alguns logs são mostrados:
Invoking lambda.lambda_handler (python3.10) OpenAILambdaLayer is a local Layer in the template Local image is up-to-date Building image..................... Using local image: samcli/lambda-python:3.10-x86_64-b22538ac72603f4028703c3d1. Mounting kube-or-fake/lambda as /var/task:ro,delegated, inside runtime container START RequestId: b1c733b3-8449-421b-ae6a-fe9ac2c86022 Version: $LATEST END RequestId: b1c733b3-8449-421b-ae6a-fe9ac2c86022 REPORT RequestId: b1c733b3-8449-421b-ae6a-fe9ac2c86022
Observação: pode ser solicitado que você forneça as credenciais de sua máquina local para permitir que sam
interaja com seu daemon docker local.
O código Lambda existe em lambda/lambda.py
, com lambda_handler
sendo o manipulador. Sinta-se à vontade para explorar com ele!
Esteja ciente de que a imagem do docker do Lambda será criada em cada invocação e, como tal, não há necessidade de executar novamente sam local start-api
ao fazer alterações no código Lambda (embora as alterações em template.yml
exijam uma nova execução) .
Fazemos isso usando sam
também:
Sam construir Sam implantar
Siga a saída do comando para ver onde seu novo Lambda foi criado.
Em scripts/words.js
, altere GENERATOR_URL
para http://127.0.0.1:3000/generate
(se estiver executando localmente) ou para seu URL remoto do Lambda.
Abra index.html
em qualquer navegador e comece a jogar. Se configurado corretamente, você verá as invocações do Lambda (por meio de logs locais ou do CloudWatch).