Este repositorio contiene una colección de carpetas de ejemplo que se pueden usar individualmente para demostrar las características clave de Zilla. Si este es el primer paso en su viaje con Zilla, le recomendamos que pruebe nuestro Inicio rápido.
Necesitará un entorno con Docker o Helm y Kubernetes instalados. Consulte nuestras colecciones de Postman para conocer más formas de interactuar con un ejemplo.
El script startup.sh
está destinado a ayudar a configurar y desmontar los componentes necesarios para cada uno de los ejemplos. Usarlo es la forma más fácil de interactuar con cada ejemplo.
Instale y ejecute cualquiera de los ejemplos utilizando el script startup.sh
:
./startup.sh -m example.name
Puede especificar su propio host y puerto de Kafka o el directorio de trabajo donde desea que se descarguen los ejemplos. Los directorios de ejemplo existentes not
se sobrescribirán.
./startup.sh -m -k kafka:9092 -d /tmp example.name
Alternativamente, puede ejecutar este script de la misma manera sin clonar el repositorio.
wget -qO- https://raw.githubusercontent.com/aklivity/zilla-examples/main/startup.sh | sh -s -- -m example.name
./startup.sh --help
Usage: startup.sh [-hm][-k KAFKA_BOOTSTRAP_SERVER][-d WORKDIR][-v ZILLA_VERSION][-e EX_VERSION][--no-kafka-init][--redpanda] example.name
Operand:
example.name The name of the example to use [default: quickstart][string]
Options:
-d | --workdir Sets the directory used to download and run the example [string]
-e | --ex-version Sets the examples version to download [default: latest][string]
-h | --use-helm Use the helm install, if available, instead of compose [boolean]
-k | --kafka-server Sets the Kafka Boostrap Server to use [string]
-m | --use-main Download the head of the main branch [boolean]
-v | --zilla-version Sets the zilla version to use [default: latest][string]
--auto-teardown Executes the teardown script immediately after setup [boolean]
--no-kafka-init The script wont try to bootstrap the kafka broker [boolean]
--redpanda Makes the included kafka broker and scripts use Redpanda [boolean]
--help Print help [boolean]
Nombre | Descripción |
---|---|
asyncapi.mqtt.proxy | Reenvía mensajes de publicación MQTT validados y los proxy se suscriben a un corredor MQTT |
asyncapi.mqtt.kafka.proxy | Reenvía mensajes de publicación MQTT a Kafka, transmitiéndolos a todos los clientes MQTT suscritos |
asyncapi.http.kafka.proxy | Correlaciona solicitudes y respuestas HTTP sobre temas de Kafka separados |
asyncapi.sse.proxy | Mensajes validados por proxy entregados por el servidor SSE |
asyncapi.sse.kafka.proxy | Transmite mensajes publicados en un tema de Kafka a través de SSE |
tcp.echo | Bytes de eco enviados al servidor TCP. |
tcp.reflect | Bytes de eco enviados al servidor TCP, difundidos a todos los clientes TCP |
tls.echo | Hace eco de los bytes cifrados enviados al servidor TLS |
tls.reflexionar | Hace eco de los bytes cifrados enviados al servidor TLS y se transmiten a todos los clientes TLS. |
http.sistema de archivos | Sirve archivos desde un directorio en el sistema de archivos local. |
http.sistema de archivos.config.servidor | Sirve archivos desde un directorio en el sistema de archivos local, obteniendo la configuración de un servidor http |
http.eco | Solicitud de ecos enviada al servidor HTTP desde un cliente HTTP |
http.echo.jwt | Solicitud de ecos enviada al servidor HTTP desde un cliente HTTP autorizado por JWT |
http.proxy | Solicitud de proxy enviada al servidor HTTP desde un cliente HTTP |
http.proxy.schema.inline | Solicitud de proxy enviada al servidor HTTP desde un cliente HTTP con aplicación de esquema |
http.kafka.sync | Correlaciona solicitudes y respuestas HTTP sobre temas de Kafka separados |
http.kafka.async | Correlaciona solicitudes y respuestas HTTP sobre temas de Kafka separados, de forma asincrónica |
http.kafka.cache | Sirve respuestas almacenadas en caché de un tema de Kafka, detecta cuando se actualiza |
http.kafka.oneway | Envía mensajes a un tema de Kafka, dispara y olvida |
http.kafka.crud | Expone una API REST con operaciones CRUD donde un tema de Kafka compactado con registros actúa como una tabla |
http.kafka.sasl.scram | Envía mensajes a un Kafka habilitado para SASL/SCRAM |
http.kafka.karapace | Validar mensajes mientras se producen y recuperan un tema de Kafka |
http.redpanda.sasl.scram | Envía mensajes a un clúster Redpanda habilitado para SASL/SCRAM |
kubernetes.prometheus.autoescala | Demostración de la función de escalado automático del pod horizontal de Kubernetes basada en una métrica personalizada con Prometheus |
grpc.echo | Hace eco de los mensajes enviados al servidor gRPC desde un cliente gRPC |
grpc.kafka.echo | Hace eco de los mensajes enviados a un tema de Kafka a través de gRPC desde un cliente de gRPC |
grpc.kafka.fanout | Transmite mensajes publicados en un tema de Kafka, aplicando combinación basada en la compactación de registros. |
grpc.kafka.proxy | Correlaciona solicitudes y respuestas de gRPC sobre temas de Kafka separados |
grpc.proxy | Proxies de solicitudes y respuestas de gRPC enviadas al servidor de gRPC desde un cliente de gRPC |
amqp.reflexionar | Hace eco de los mensajes publicados en el servidor AMQP y los transmite a todos los clientes AMQP receptores. |
mqtt.kafka.broker | Reenvía mensajes de publicación MQTT a Kafka, transmitiéndolos a todos los clientes MQTT suscritos |
mqtt.kafka.broker.jwt | Reenvía mensajes de publicación MQTT a Kafka, transmitiéndolos a todos los clientes MQTT suscritos y autorizados por JWT. |
inicio rápido | Inicia puntos finales para todos los protocolos (HTTP, SSE, gRPC, MQTT) |
sse.kafka.fanout | Transmite mensajes publicados en un tema de Kafka, aplicando combinación basada en la compactación de registros. |
sse.proxy.jwt | Mensajes proxy entregados por el servidor SSE, lo que aplica restricciones de seguridad de transmisión |
ws.echo | Hace eco de los mensajes enviados al servidor WebSocket |
ws.reflexionar | Hace eco de los mensajes enviados al servidor WebSocket y los transmite a todos los clientes WebSocket. |
Lea los documentos. Pruebe los ejemplos. Únete a la comunidad de Slack.