zilla examples
1.0.0
이 저장소에는 주요 Zilla 기능을 보여주기 위해 개별적으로 사용할 수 있는 예제 폴더 모음이 포함되어 있습니다. 이것이 Zilla와의 여정의 첫 번째 단계라면 빠른 시작을 시도해 보시기 바랍니다.
Docker 또는 Helm과 Kubernetes가 설치된 환경이 필요합니다. 예제와 상호 작용하는 더 많은 방법은 Postman 컬렉션을 확인하세요.
startup.sh
스크립트는 각 예제에 필요한 구성 요소를 설정하고 해제하는 데 도움을 주기 위한 것입니다. 이를 사용하는 것이 각 예제와 상호 작용하는 가장 쉬운 방법입니다.
startup.sh
스크립트를 사용하여 예제를 설치하고 실행합니다.
./startup.sh -m example.name
고유한 Kafka 호스트 및 포트를 지정하거나 예제를 다운로드할 작업 디렉터리를 지정할 수 있습니다. 기존 예제 디렉터리는 덮어쓰이지 not
.
./startup.sh -m -k kafka:9092 -d /tmp example.name
또는 저장소를 복제하지 않고 동일한 방식으로 이 스크립트를 실행할 수 있습니다.
wget -qO- https://raw.githubusercontent.com/aklivity/zilla-examples/main/startup.sh | sh -s -- -m example.name
./startup.sh --help
Usage: startup.sh [-hm][-k KAFKA_BOOTSTRAP_SERVER][-d WORKDIR][-v ZILLA_VERSION][-e EX_VERSION][--no-kafka-init][--redpanda] example.name
Operand:
example.name The name of the example to use [default: quickstart][string]
Options:
-d | --workdir Sets the directory used to download and run the example [string]
-e | --ex-version Sets the examples version to download [default: latest][string]
-h | --use-helm Use the helm install, if available, instead of compose [boolean]
-k | --kafka-server Sets the Kafka Boostrap Server to use [string]
-m | --use-main Download the head of the main branch [boolean]
-v | --zilla-version Sets the zilla version to use [default: latest][string]
--auto-teardown Executes the teardown script immediately after setup [boolean]
--no-kafka-init The script wont try to bootstrap the kafka broker [boolean]
--redpanda Makes the included kafka broker and scripts use Redpanda [boolean]
--help Print help [boolean]
이름 | 설명 |
---|---|
asyncapi.mqtt.proxy | 검증된 MQTT 게시 메시지를 전달하고 프록시는 MQTT 브로커를 구독합니다. |
asyncapi.mqtt.kafka.proxy | MQTT 게시 메시지를 Kafka로 전달하여 구독한 모든 MQTT 클라이언트에 브로드캐스팅합니다. |
asyncapi.http.kafka.proxy | 별도의 Kafka 주제에 대한 HTTP 요청과 응답의 상관관계를 분석합니다. |
asyncapi.sse.proxy | SSE 서버가 전달한 프록시 검증 메시지 |
asyncapi.sse.kafka.proxy | SSE를 통해 Kafka 주제에 게시된 메시지를 스트리밍합니다. |
tcp.echo | TCP 서버로 전송된 바이트를 에코합니다. |
tcp.reflect | TCP 서버로 전송된 바이트를 에코하여 모든 TCP 클라이언트에 브로드캐스팅합니다. |
TLS.에코 | TLS 서버로 전송된 암호화된 바이트를 에코합니다. |
TLS.반사 | TLS 서버로 전송된 암호화된 바이트를 에코하여 모든 TLS 클라이언트에 브로드캐스팅합니다. |
http.파일시스템 | 로컬 파일 시스템의 디렉터리에서 파일을 제공합니다. |
http.filesystem.config.server | 로컬 파일 시스템의 디렉터리에서 파일을 제공하고 http 서버에서 구성을 가져옵니다. |
http.echo | HTTP 클라이언트에서 HTTP 서버로 전송된 요청을 에코합니다. |
http.echo.jwt | JWT 인증 HTTP 클라이언트에서 HTTP 서버로 전송된 요청을 에코합니다. |
http.프록시 | HTTP 클라이언트에서 HTTP 서버로 전송된 프록시 요청 |
http.proxy.schema.inline | 스키마 적용을 통해 HTTP 클라이언트에서 HTTP 서버로 전송된 프록시 요청 |
http.kafka.sync | 별도의 Kafka 주제에 대한 HTTP 요청과 응답의 상관관계를 분석합니다. |
http.kafka.async | 별도의 Kafka 주제에 대한 HTTP 요청과 응답을 비동기적으로 연관시킵니다. |
http.kafka.cache | Kafka 주제에서 캐시된 응답을 제공하고 업데이트 시 감지합니다. |
http.kafka.oneway | Kafka 주제에 메시지를 보냅니다. |
http.kafka.crud | 로그 압축된 Kafka 주제가 테이블 역할을 하는 CRUD 작업을 통해 REST API를 노출합니다. |
http.kafka.sasl.scram | SASL/SCRAM 지원 Kafka에 메시지를 보냅니다. |
http.kafka.karapace | Kafka 주제를 생성하고 가져오는 동안 메시지 유효성을 검사합니다. |
http.redpanda.sasl.scram | SASL/SCRAM 지원 Redpanda 클러스터에 메시지를 보냅니다. |
kubernetes.prometheus.autoscale | Prometheus의 사용자 정의 지표를 기반으로 하는 데모 Kubernetes 수평형 포드 자동 확장 기능 |
grpc.echo | gRPC 클라이언트에서 gRPC 서버로 보낸 메시지를 에코합니다. |
grpc.kafka.echo | gRPC 클라이언트에서 gRPC를 통해 Kafka 주제로 보낸 메시지를 에코합니다. |
grpc.kafka.fanout | 로그 압축을 기반으로 융합을 적용하여 Kafka 주제에 게시된 메시지를 스트리밍합니다. |
grpc.kafka.proxy | 개별 Kafka 주제에 대한 gRPC 요청과 응답의 상관 관계 |
grpc.proxy | gRPC 클라이언트에서 gRPC 서버로 전송된 gRPC 요청 및 응답을 프록시합니다. |
amqp.reflect | AMQP 서버에 게시된 메시지를 에코하여 모든 수신 AMQP 클라이언트에 브로드캐스팅합니다. |
mqtt.kafka.브로커 | MQTT 게시 메시지를 Kafka로 전달하여 구독한 모든 MQTT 클라이언트에 브로드캐스팅합니다. |
mqtt.kafka.broker.jwt | MQTT 게시 메시지를 Kafka로 전달하여 구독한 모든 JWT 인증 MQTT 클라이언트에 브로드캐스팅합니다. |
빠른 시작 | 모든 프로토콜(HTTP, SSE, gRPC, MQTT)에 대한 엔드포인트를 시작합니다. |
sse.kafka.팬아웃 | 로그 압축을 기반으로 융합을 적용하여 Kafka 주제에 게시된 메시지를 스트리밍합니다. |
sse.proxy.jwt | SSE 서버가 전달하는 메시지를 프록시하여 스트리밍 보안 제약 조건을 적용합니다. |
ws.echo | WebSocket 서버로 전송된 메시지를 에코합니다. |
ws.반사 | WebSocket 서버로 전송된 메시지를 에코하여 모든 WebSocket 클라이언트에 브로드캐스팅합니다. |
문서를 읽어보세요. 예제를 시도해 보세요. Slack 커뮤니티에 가입하세요.