zilla examples
1.0.0
此存储库包含一组示例文件夹,可以单独使用这些文件夹来演示 Zilla 的关键功能。如果这是您 Zilla 之旅的第一步,我们鼓励您尝试我们的快速入门。
您将需要一个安装了 Docker 或 Helm 和 Kubernetes 的环境。查看我们的 Postman 集合,了解与示例交互的更多方法。
startup.sh
脚本旨在帮助设置和拆卸每个示例的必要组件。使用它是与每个示例交互的最简单的方法。
使用startup.sh
脚本安装并运行任何示例:
./startup.sh -m example.name
您可以指定自己的 Kafka 主机和端口或要下载示例的工作目录。现有示例目录not
被覆盖。
./startup.sh -m -k kafka:9092 -d /tmp example.name
或者,您可以以相同的方式运行此脚本,而无需克隆存储库。
wget -qO- https://raw.githubusercontent.com/aklivity/zilla-examples/main/startup.sh | sh -s -- -m example.name
./startup.sh --help
Usage: startup.sh [-hm][-k KAFKA_BOOTSTRAP_SERVER][-d WORKDIR][-v ZILLA_VERSION][-e EX_VERSION][--no-kafka-init][--redpanda] example.name
Operand:
example.name The name of the example to use [default: quickstart][string]
Options:
-d | --workdir Sets the directory used to download and run the example [string]
-e | --ex-version Sets the examples version to download [default: latest][string]
-h | --use-helm Use the helm install, if available, instead of compose [boolean]
-k | --kafka-server Sets the Kafka Boostrap Server to use [string]
-m | --use-main Download the head of the main branch [boolean]
-v | --zilla-version Sets the zilla version to use [default: latest][string]
--auto-teardown Executes the teardown script immediately after setup [boolean]
--no-kafka-init The script wont try to bootstrap the kafka broker [boolean]
--redpanda Makes the included kafka broker and scripts use Redpanda [boolean]
--help Print help [boolean]
姓名 | 描述 |
---|---|
asyncapi.mqtt.proxy | 转发经过验证的 MQTT 发布消息并代理订阅 MQTT 代理 |
asyncapi.mqtt.kafka.proxy | 将 MQTT 发布消息转发到 Kafka,广播到所有订阅的 MQTT 客户端 |
asyncapi.http.kafka.proxy | 将单独 Kafka 主题上的 HTTP 请求和响应关联起来 |
asyncapi.sse.proxy | 代理由 SSE 服务器传送的验证消息 |
asyncapi.sse.kafka.proxy | 通过 SSE 流式传输发布到 Kafka 主题的消息 |
tcp回显 | 回显发送到 TCP 服务器的字节 |
tcp 反射 | 回显发送到 TCP 服务器的字节,广播到所有 TCP 客户端 |
tls.echo | 回显发送到 TLS 服务器的加密字节 |
tls.reflect | 回显发送到 TLS 服务器的加密字节,广播到所有 TLS 客户端 |
http.文件系统 | 提供本地文件系统上目录中的文件 |
http.filesystem.config.server | 从本地文件系统上的目录提供文件,从 http 服务器获取配置 |
http.echo | 回显从 HTTP 客户端发送到 HTTP 服务器的请求 |
http.echo.jwt | 回显从 JWT 授权的 HTTP 客户端发送到 HTTP 服务器的请求 |
http代理 | 从 HTTP 客户端发送到 HTTP 服务器的代理请求 |
http.proxy.schema.inline | 通过架构强制从 HTTP 客户端发送到 HTTP 服务器的代理请求 |
http.kafka.sync | 将单独 Kafka 主题上的 HTTP 请求和响应关联起来 |
http.kafka.async | 通过单独的 Kafka 主题异步关联 HTTP 请求和响应 |
http.kafka.cache | 提供来自 Kafka 主题的缓存响应,检测更新时间 |
http.kafka.oneway | 将消息发送到 Kafka 主题,即发即弃 |
http.kafka.crud | 通过 CRUD 操作公开 REST API,其中日志压缩的 Kafka 主题充当表 |
http.kafka.sasl.scram | 将消息发送到启用 SASL/SCRAM 的 Kafka |
http.kafka.karapace | 在生成和获取 Kafka 主题时验证消息 |
http.redpanda.sasl.scram | 将消息发送到启用 SASL/SCRAM 的 Redpanda 集群 |
kubernetes.prometheus.autoscale | 演示基于 Prometheus 自定义指标的 Kubernetes Horizontal Pod Autoscaling 功能 |
grpc.echo | 回显从 gRPC 客户端发送到 gRPC 服务器的消息 |
grpc.kafka.echo | 回显从 gRPC 客户端通过 gRPC 发送到 Kafka 主题的消息 |
grpc.kafka.fanout | 将发布到 Kafka 主题的消息流式传输,应用基于日志压缩的合并 |
grpc.kafka.proxy | 通过单独的 Kafka 主题关联 gRPC 请求和响应 |
grpc代理 | 代理从 gRPC 客户端发送到 gRPC 服务器的 gRPC 请求和响应 |
amqp.reflect | 回显发布到 AMQP 服务器的消息,广播到所有接收 AMQP 客户端 |
mqtt.kafka.broker | 将 MQTT 发布消息转发到 Kafka,广播到所有订阅的 MQTT 客户端 |
mqtt.kafka.broker.jwt | 将 MQTT 发布消息转发到 Kafka,广播到所有订阅的 JWT 授权的 MQTT 客户端 |
快速入门 | 启动所有协议(HTTP、SSE、gRPC、MQTT)的端点 |
sse.kafka.fanout | 将发布到 Kafka 主题的消息流式传输,应用基于日志压缩的合并 |
sse代理.jwt | 代理 SSE 服务器传递的消息,强制执行流安全约束 |
WS.回声 | 回显发送到 WebSocket 服务器的消息 |
ws.reflect | 回显发送到 WebSocket 服务器的消息,广播到所有 WebSocket 客户端 |
阅读文档。尝试一下例子。加入 Slack 社区。