标签: apache-spark apache-kafka spark-structured-streaming
我想知道,是否有可能有 2 个具有相同消费者组 ID 的 Spark 结构化流作业来访问相同的 Kafka 主题?并且给定的主题分区应该只被一个流式作业消耗,并且在一个作业失败的情况下,应该将工作负载推送到其他作业。
请告诉我这是否可以在 Spark Structured Streaming 中实现?我使用的是 Spark 2.4.7 和 GCP dataproc 集群。
提前致谢!!