Spark Structured Streaming中具有相同消费者组ID的多个消费者

时间:2021-04-02 05:22:14

标签: apache-spark apache-kafka spark-structured-streaming

我想知道,是否有可能有 2 个具有相同消费者组 ID 的 Spark 结构化流作业来访问相同的 Kafka 主题?并且给定的主题分区应该只被一个流式作业消耗,并且在一个作业失败的情况下,应该将工作负载推送到其他作业。

请告诉我这是否可以在 Spark Structured Streaming 中实现?我使用的是 Spark 2.4.7 和 GCP dataproc 集群。

提前致谢!!

0 个答案:

没有答案