zilla examples
1.0.0
此儲存庫包含一組範例資料夾,可單獨使用這些資料夾來示範 Zilla 的關鍵功能。如果這是您 Zilla 之旅的第一步,我們鼓勵您嘗試我們的快速入門。
您將需要一個安裝了 Docker 或 Helm 和 Kubernetes 的環境。查看我們的 Postman 集合,以了解與範例互動的更多方法。
startup.sh
腳本旨在協助設定和拆卸每個範例的必要組件。使用它是與每個範例互動的最簡單的方法。
使用startup.sh
腳本安裝並執行任何範例:
./startup.sh -m example.name
您可以指定自己的 Kafka 主機和連接埠或要下載範例的工作目錄。現有範例目錄not
被覆蓋。
./startup.sh -m -k kafka:9092 -d /tmp example.name
或者,您可以以相同的方式運行此腳本,而無需克隆存儲庫。
wget -qO- https://raw.githubusercontent.com/aklivity/zilla-examples/main/startup.sh | sh -s -- -m example.name
./startup.sh --help
Usage: startup.sh [-hm][-k KAFKA_BOOTSTRAP_SERVER][-d WORKDIR][-v ZILLA_VERSION][-e EX_VERSION][--no-kafka-init][--redpanda] example.name
Operand:
example.name The name of the example to use [default: quickstart][string]
Options:
-d | --workdir Sets the directory used to download and run the example [string]
-e | --ex-version Sets the examples version to download [default: latest][string]
-h | --use-helm Use the helm install, if available, instead of compose [boolean]
-k | --kafka-server Sets the Kafka Boostrap Server to use [string]
-m | --use-main Download the head of the main branch [boolean]
-v | --zilla-version Sets the zilla version to use [default: latest][string]
--auto-teardown Executes the teardown script immediately after setup [boolean]
--no-kafka-init The script wont try to bootstrap the kafka broker [boolean]
--redpanda Makes the included kafka broker and scripts use Redpanda [boolean]
--help Print help [boolean]
姓名 | 描述 |
---|---|
asyncapi.mqtt.proxy | 轉發經過驗證的 MQTT 發布訊息並代理訂閱 MQTT 代理 |
asyncapi.mqtt.kafka.proxy | 將 MQTT 發布訊息轉發到 Kafka,廣播到所有訂閱的 MQTT 用戶端 |
asyncapi.http.kafka.proxy | 將單獨 Kafka 主題上的 HTTP 請求和回應關聯起來 |
asyncapi.sse.proxy | 代理由 SSE 伺服器傳送的驗證訊息 |
asyncapi.sse.kafka.proxy | 透過 SSE 串流發佈到 Kafka 主題的訊息 |
tcp回顯 | 回顯發送到 TCP 伺服器的位元組 |
tcp 反射 | 回顯傳送到 TCP 伺服器的位元組,廣播到所有 TCP 用戶端 |
tls.echo | 回顯傳送到 TLS 伺服器的加密位元組 |
tls.reflect | 回顯傳送到 TLS 伺服器的加密位元組,廣播到所有 TLS 用戶端 |
http.檔案系統 | 提供本機檔案系統上目錄中的文件 |
http.filesystem.config.server | 從本機檔案系統上的目錄提供文件,從 http 伺服器取得配置 |
http.echo | 回顯從 HTTP 用戶端傳送到 HTTP 伺服器的請求 |
http.echo.jwt | 回顯從 JWT 授權的 HTTP 用戶端傳送到 HTTP 伺服器的請求 |
http代理 | 從 HTTP 用戶端傳送到 HTTP 伺服器的代理請求 |
http.proxy.schema.inline | 透過架構強制從 HTTP 用戶端傳送到 HTTP 伺服器的代理請求 |
http.kafka.sync | 將單獨 Kafka 主題上的 HTTP 請求和回應關聯起來 |
http.kafka.async | 透過單獨的 Kafka 主題非同步關聯 HTTP 請求和回應 |
http.kafka.cache | 提供來自 Kafka 主題的快取回應,偵測更新時間 |
http.kafka.oneway | 將訊息傳送到 Kafka 主題,即發即棄 |
http.kafka.crud | 透過 CRUD 操作公開 REST API,其中日誌壓縮的 Kafka 主題充當表 |
http.kafka.sasl.scram | 將訊息傳送到啟用 SASL/SCRAM 的 Kafka |
http.kafka.karapace | 在產生和取得 Kafka 主題時驗證訊息 |
http.redpanda.sasl.scram | 將訊息傳送到啟用 SASL/SCRAM 的 Redpanda 集群 |
kubernetes.prometheus.autoscale | 示範基於 Prometheus 自訂指標的 Kubernetes Horizontal Pod Autoscaling 功能 |
grpc.echo | 回顯從 gRPC 用戶端傳送到 gRPC 伺服器的訊息 |
grpc.kafka.echo | 回顯從 gRPC 用戶端透過 gRPC 發送到 Kafka 主題的訊息 |
grpc.kafka.fanout | 將發佈到 Kafka 主題的訊息串流傳輸,套用基於日誌壓縮的合併 |
grpc.kafka.proxy | 透過單獨的 Kafka 主題關聯 gRPC 請求和回應 |
grpc代理 | 代理從 gRPC 用戶端傳送到 gRPC 伺服器的 gRPC 請求和回應 |
amqp.reflect | 回顯發佈到 AMQP 伺服器的訊息,廣播到所有接收 AMQP 用戶端 |
mqtt.kafka.broker | 將 MQTT 發布訊息轉發到 Kafka,廣播到所有訂閱的 MQTT 用戶端 |
mqtt.kafka.broker.jwt | 將 MQTT 發布訊息轉發到 Kafka,廣播到所有訂閱的 JWT 授權的 MQTT 用戶端 |
快速入門 | 啟動所有協定(HTTP、SSE、gRPC、MQTT)的端點 |
sse.kafka.fanout | 將發佈到 Kafka 主題的訊息串流傳輸,套用基於日誌壓縮的合併 |
sse代理.jwt | 代理 SSE 伺服器傳遞的訊息,強制執行流安全約束 |
WS.迴聲 | 回顯傳送到 WebSocket 伺服器的訊息 |
ws.reflect | 回顯傳送到 WebSocket 伺服器的訊息,廣播到所有 WebSocket 用戶端 |
閱讀文檔。嘗試一下例子。加入 Slack 社群。