Ce référentiel contient une collection d'exemples de dossiers qui peuvent être utilisés individuellement pour démontrer les fonctionnalités clés de Zilla. S'il s'agit de votre première étape dans votre voyage avec Zilla, nous vous encourageons à essayer notre démarrage rapide.
Vous aurez besoin d'un environnement avec Docker ou Helm et Kubernetes installés. Consultez nos collections Postman pour découvrir d’autres façons d’interagir avec un exemple.
Le script startup.sh
est destiné à aider à configurer et à démonter les composants nécessaires pour chacun des exemples. Son utilisation est le moyen le plus simple d’interagir avec chaque exemple.
Installez et exécutez l'un des exemples à l'aide du script startup.sh
:
./startup.sh -m example.name
Vous pouvez spécifier votre propre hôte et port Kafka ou le répertoire de travail dans lequel vous souhaitez que les exemples soient téléchargés. Les répertoires d'exemples existants ne seront not
écrasés.
./startup.sh -m -k kafka:9092 -d /tmp example.name
Alternativement, vous pouvez exécuter ce script de la même manière sans cloner le dépôt.
wget -qO- https://raw.githubusercontent.com/aklivity/zilla-examples/main/startup.sh | sh -s -- -m example.name
./startup.sh --help
Usage: startup.sh [-hm][-k KAFKA_BOOTSTRAP_SERVER][-d WORKDIR][-v ZILLA_VERSION][-e EX_VERSION][--no-kafka-init][--redpanda] example.name
Operand:
example.name The name of the example to use [default: quickstart][string]
Options:
-d | --workdir Sets the directory used to download and run the example [string]
-e | --ex-version Sets the examples version to download [default: latest][string]
-h | --use-helm Use the helm install, if available, instead of compose [boolean]
-k | --kafka-server Sets the Kafka Boostrap Server to use [string]
-m | --use-main Download the head of the main branch [boolean]
-v | --zilla-version Sets the zilla version to use [default: latest][string]
--auto-teardown Executes the teardown script immediately after setup [boolean]
--no-kafka-init The script wont try to bootstrap the kafka broker [boolean]
--redpanda Makes the included kafka broker and scripts use Redpanda [boolean]
--help Print help [boolean]
Nom | Description |
---|---|
asyncapi.mqtt.proxy | Transfère les messages de publication MQTT validés et les proxys s'abonnent à un courtier MQTT |
asyncapi.mqtt.kafka.proxy | Transfère les messages de publication MQTT à Kafka, diffusant à tous les clients MQTT abonnés |
asyncapi.http.kafka.proxy | Corrèle les requêtes et les réponses HTTP sur des sujets Kafka distincts |
asyncapi.sse.proxy | Messages validés par les proxys délivrés par le serveur SSE |
asyncapi.sse.kafka.proxy | Diffuse les messages publiés sur un sujet Kafka via SSE |
tcp.echo | Fait écho aux octets envoyés au serveur TCP |
tcp.reflect | Écho des octets envoyés au serveur TCP, diffusés à tous les clients TCP |
tls.echo | Fait écho aux octets chiffrés envoyés au serveur TLS |
tls.reflect | Fait écho aux octets chiffrés envoyés au serveur TLS, diffusés à tous les clients TLS |
http.système de fichiers | Sert les fichiers à partir d'un répertoire sur le système de fichiers local |
http.filesystem.config.server | Sert les fichiers d'un répertoire sur le système de fichiers local, en obtenant la configuration d'un serveur http |
http.echo | Fait écho à la requête envoyée au serveur HTTP depuis un client HTTP |
http.echo.jwt | Fait écho à la requête envoyée au serveur HTTP à partir d'un client HTTP autorisé par JWT |
http.proxy | Requête proxy envoyée au serveur HTTP depuis un client HTTP |
http.proxy.schema.inline | Requête proxy envoyée au serveur HTTP depuis un client HTTP avec application du schéma |
http.kafka.sync | Corrèle les requêtes et les réponses HTTP sur des sujets Kafka distincts |
http.kafka.async | Corrèle les requêtes et les réponses HTTP sur des sujets Kafka distincts, de manière asynchrone |
http.kafka.cache | Sert les réponses en cache d'un sujet Kafka, détecte lors de la mise à jour |
http.kafka.oneway | Envoie des messages à un sujet Kafka, lancez et oubliez |
http.kafka.crud | Expose une API REST avec des opérations CRUD où un sujet Kafka compacté dans le journal agit comme une table |
http.kafka.sasl.scram | Envoie des messages à un Kafka compatible SASL/SCRAM |
http.kafka.karapace | Valider les messages lors de la production et de la récupération vers un sujet Kafka |
http.redpanda.sasl.scram | Envoie des messages à un cluster Redpanda compatible SASL/SCRAM |
kubernetes.prometheus.autoscale | Démo de la fonctionnalité de mise à l'échelle horizontale des pods Kubernetes basée sur une métrique personnalisée avec Prometheus |
grpc.echo | Fait écho aux messages envoyés au serveur gRPC à partir d'un client gRPC |
grpc.kafka.echo | Fait écho aux messages envoyés à un sujet Kafka via gRPC à partir d'un client gRPC |
grpc.kafka.fanout | Diffuse les messages publiés sur un sujet Kafka, en appliquant une confusion basée sur le compactage des journaux |
grpc.kafka.proxy | Corrèle les requêtes et les réponses gRPC sur des sujets Kafka distincts |
grpc.proxy | Requêtes et réponses proxy gRPC envoyées au serveur gRPC à partir d'un client gRPC |
amqp.reflect | Fait écho aux messages publiés sur le serveur AMQP, diffusés à tous les clients AMQP récepteurs |
mqtt.kafka.broker | Transfère les messages de publication MQTT à Kafka, diffusant à tous les clients MQTT abonnés |
mqtt.kafka.broker.jwt | Transfère les messages de publication MQTT à Kafka, les diffusant à tous les clients MQTT autorisés par JWT abonnés |
démarrage rapide | Démarre les points de terminaison pour tous les protocoles (HTTP, SSE, gRPC, MQTT) |
sse.kafka.fanout | Diffuse les messages publiés sur un sujet Kafka, en appliquant une confusion basée sur le compactage des journaux |
sse.proxy.jwt | Messages proxy délivrés par le serveur SSE, appliquant les contraintes de sécurité du streaming |
ws.echo | Fait écho aux messages envoyés au serveur WebSocket |
ws.reflect | Fait écho aux messages envoyés au serveur WebSocket, diffusés à tous les clients WebSocket |
Lisez les documents. Essayez les exemples. Rejoignez la communauté Slack.