Kube oder Fake? ist ein unterhaltsames Minispiel, bei dem der Spieler richtig erraten muss, ob ein von ChatGPT generiertes Wort ein echter Kubernetes-Begriff oder ein erfundener Begriff ist.
Vergessen Sie nicht, Ihre Ergebnisse auf LinkedIn / Twitter zu teilen!
Python
npm
Docker
AWS SAM-CLI
brew installiere aws/tap/aws-sam-cli
Forken Sie dieses Repository
Abhängigkeiten installieren
npm installieren
Dieses Repository enthält die Dateien, die zum lokalen Ausführen von AWS Lambda und zur Bereitstellung in AWS mithilfe einer CloudFormation-Vorlage erforderlich sind.
Geben Sie in template.yml
Werte für die Umgebungsvariablen OPENAI_API_KEY
und OPENAI_MODEL_NAME
an.
Erstellen Sie eine lokale Lambda-Ebene für das openai
Python-Paket:
pip install -r Anforderungen.txt -t libs/python
Der Lambda kann lokal mit sam
ausgeführt werden:
Sam lokale Start-API
Dieser Befehl startet einen Server, der in localhost:3000
ausgeführt wird. Die Befehlsausgabe sollte wie folgt aussehen:
Mounting GenerateKubernetesTermFunction at http://127.0.0.1:3000/generate [GET] You can now browse to the above endpoints to invoke your functions. You do not need to restart/reload SAM CLI while working on your functions, changes will be reflected instantly/automatically. If you used sam build before running local commands, you will need to re-run sam build for the changes to be picked up. You only need to restart SAM CLI if you update your AWS SAM template 2023-07-20 11:58:51 WARNING: This is a development server. Do not use it in a production deployment. Use a production WSGI server instead. * Running on http://127.0.0.1:3000 2023-07-20 11:58:51 Press CTRL+C to quit
Wenn Lambda über localhost:3000/generate
aufgerufen wird, werden einige weitere Protokolle angezeigt:
Invoking lambda.lambda_handler (python3.10) OpenAILambdaLayer is a local Layer in the template Local image is up-to-date Building image..................... Using local image: samcli/lambda-python:3.10-x86_64-b22538ac72603f4028703c3d1. Mounting kube-or-fake/lambda as /var/task:ro,delegated, inside runtime container START RequestId: b1c733b3-8449-421b-ae6a-fe9ac2c86022 Version: $LATEST END RequestId: b1c733b3-8449-421b-ae6a-fe9ac2c86022 REPORT RequestId: b1c733b3-8449-421b-ae6a-fe9ac2c86022
Hinweis: Möglicherweise werden Sie aufgefordert, die Anmeldeinformationen Ihres lokalen Computers anzugeben, damit sam
mit Ihrem lokalen Docker-Daemon interagieren kann.
Der Lambda-Code existiert in lambda/lambda.py
, wobei lambda_handler
der Handler ist. Fühlen Sie sich frei, es damit zu erkunden!
Beachten Sie, dass das Lambda-Docker-Image bei jedem Aufruf erstellt wird und es daher nicht erforderlich ist, sam local start-api
erneut auszuführen, wenn Sie Änderungen am Lambda-Code vornehmen (Änderungen an template.yml
erfordern jedoch eine erneute Ausführung). .
Wir machen das auch mit sam
:
Sam baut Sam bereitstellen
Folgen Sie der Ausgabe des Befehls, um zu sehen, wo Ihr neues Lambda erstellt wird.
Ändern Sie in scripts/words.js
GENERATOR_URL
entweder in http://127.0.0.1:3000/generate
(bei lokaler Ausführung) oder in Ihre Remote-Lambda-URL.
Öffnen Sie index.html
in einem beliebigen Browser und beginnen Sie mit der Wiedergabe. Bei korrekter Konfiguration sollten Sie die Lambda-Aufrufe sehen (entweder über lokale Protokolle oder CloudWatch).