Repo ini berisi kumpulan contoh folder yang dapat digunakan secara individual untuk mendemonstrasikan fitur-fitur utama Zilla. Jika ini adalah langkah pertama Anda dalam perjalanan bersama Zilla, kami mendorong Anda untuk mencoba Panduan Mulai Cepat kami.
Anda memerlukan lingkungan dengan Docker atau Helm dan Kubernetes terinstal. Lihat koleksi Tukang Pos kami untuk mengetahui lebih banyak cara berinteraksi dengan sebuah contoh.
Skrip startup.sh
dimaksudkan untuk membantu menyiapkan dan membongkar komponen yang diperlukan untuk setiap contoh. Menggunakannya adalah cara termudah untuk berinteraksi dengan setiap contoh.
Instal dan jalankan salah satu contoh menggunakan skrip startup.sh
:
./startup.sh -m example.name
Anda dapat menentukan host dan port Kafka Anda sendiri atau direktori kerja tempat Anda ingin contoh diunduh. Direktori contoh yang ada not
akan ditimpa.
./startup.sh -m -k kafka:9092 -d /tmp example.name
Alternatifnya, Anda dapat menjalankan skrip ini dengan cara yang sama tanpa mengkloning repo.
wget -qO- https://raw.githubusercontent.com/aklivity/zilla-examples/main/startup.sh | sh -s -- -m example.name
./startup.sh --help
Usage: startup.sh [-hm][-k KAFKA_BOOTSTRAP_SERVER][-d WORKDIR][-v ZILLA_VERSION][-e EX_VERSION][--no-kafka-init][--redpanda] example.name
Operand:
example.name The name of the example to use [default: quickstart][string]
Options:
-d | --workdir Sets the directory used to download and run the example [string]
-e | --ex-version Sets the examples version to download [default: latest][string]
-h | --use-helm Use the helm install, if available, instead of compose [boolean]
-k | --kafka-server Sets the Kafka Boostrap Server to use [string]
-m | --use-main Download the head of the main branch [boolean]
-v | --zilla-version Sets the zilla version to use [default: latest][string]
--auto-teardown Executes the teardown script immediately after setup [boolean]
--no-kafka-init The script wont try to bootstrap the kafka broker [boolean]
--redpanda Makes the included kafka broker and scripts use Redpanda [boolean]
--help Print help [boolean]
Nama | Keterangan |
---|---|
asyncapi.mqtt.proxy | Meneruskan pesan publikasi MQTT yang divalidasi dan proxy berlangganan ke broker MQTT |
asyncapi.mqtt.kafka.proxy | Meneruskan MQTT mempublikasikan pesan ke Kafka, menyiarkan ke semua klien MQTT yang berlangganan |
asyncapi.http.kafka.proxy | Mengkorelasikan permintaan dan respons HTTP pada topik Kafka yang terpisah |
asyncapi.sse.proxy | Proksi memvalidasi pesan yang dikirimkan oleh server SSE |
asyncapi.sse.kafka.proxy | Mengalirkan pesan yang dipublikasikan ke topik Kafka melalui SSE |
tcp.echo | Gema byte yang dikirim ke server TCP |
tcp.reflect | Gema byte yang dikirim ke server TCP, disiarkan ke semua klien TCP |
tls.echo | Menggemakan byte terenkripsi yang dikirim ke server TLS |
tls.reflect | Menggemakan byte terenkripsi yang dikirim ke server TLS, disiarkan ke semua klien TLS |
http.sistem file | Melayani file dari direktori pada sistem file lokal |
http.filesystem.config.server | Menyajikan file dari direktori pada sistem file lokal, mendapatkan konfigurasi dari server http |
http.echo | Permintaan gema dikirim ke server HTTP dari klien HTTP |
http.echo.jwt | Permintaan gema dikirim ke server HTTP dari klien HTTP resmi JWT |
http.proxy | Permintaan proxy dikirim ke server HTTP dari klien HTTP |
http.proxy.schema.inline | Permintaan proxy dikirim ke server HTTP dari klien HTTP dengan penerapan skema |
http.kafka.sinkronisasi | Mengkorelasikan permintaan dan respons HTTP pada topik Kafka yang terpisah |
http.kafka.async | Mengkorelasikan permintaan dan respons HTTP pada topik Kafka yang terpisah, secara asinkron |
http.kafka.cache | Menyajikan respons yang di-cache dari topik Kafka, terdeteksi saat diperbarui |
http.kafka.oneway | Mengirim pesan ke topik Kafka, tembak dan lupakan |
http.kafka.mentah | Mengekspos REST API dengan operasi CRUD yang mana topik Kafka yang dipadatkan log bertindak sebagai tabel |
http.kafka.sasl.scram | Mengirim pesan ke Kafka yang mendukung SASL/SCRAM |
http.kafka.karapace | Validasi pesan saat memproduksi dan mengambil topik Kafka |
http.redpanda.sasl.scram | Mengirim pesan ke Cluster Redpanda yang mendukung SASL/SCRAM |
kubernetes.prometheus.autoscale | Demo fitur Penskalaan Otomatis Pod Horisontal Kubernetes berdasarkan metrik khusus dengan Prometheus |
grpc.echo | Menggemakan pesan yang dikirim ke server gRPC dari klien gRPC |
grpc.kafka.echo | Menggemakan pesan yang dikirim ke topik Kafka melalui gRPC dari klien gRPC |
grpc.kafka.fanout | Mengalirkan pesan yang dipublikasikan ke topik Kafka, menerapkan penggabungan berdasarkan pemadatan log |
grpc.kafka.proxy | Mengkorelasikan permintaan dan respons gRPC pada topik Kafka yang terpisah |
grpc.proxy | Proksi permintaan dan respons gRPC yang dikirim ke server gRPC dari klien gRPC |
amqp.reflect | Menggaungkan pesan yang dipublikasikan ke server AMQP, disiarkan ke semua klien AMQP penerima |
mqtt.kafka.broker | Meneruskan MQTT mempublikasikan pesan ke Kafka, menyiarkan ke semua klien MQTT yang berlangganan |
mqtt.kafka.broker.jwt | Meneruskan MQTT mempublikasikan pesan ke Kafka, menyiarkan ke semua klien MQTT resmi JWT yang berlangganan |
mulai cepat | Memulai titik akhir untuk semua protokol (HTTP, SSE, gRPC, MQTT) |
sse.kafka.fanout | Mengalirkan pesan yang dipublikasikan ke topik Kafka, menerapkan penggabungan berdasarkan pemadatan log |
sse.proxy.jwt | Pesan proxy dikirimkan oleh server SSE, menerapkan batasan keamanan streaming |
ws.echo | Menggemakan pesan yang dikirim ke server WebSocket |
ws.reflect | Menggemakan pesan yang dikirim ke server WebSocket, disiarkan ke semua klien WebSocket |
Baca dokumennya. Coba contohnya. Bergabunglah dengan komunitas Slack.