标签: apache-spark apache-kafka spark-streaming
我想知道如何在执行程序进程内部运行的SimpleConsumer之间共享Kafka分区。我知道高级卡夫卡消费者如何在消费者群体中的不同消费者之间分享这些消费者。但是当Spark使用Simple消费者时会发生什么?跨机器的流媒体作业将有多个执行程序。
答案 0 :(得分:0)
所有Spark执行程序也应该属于同一个使用者组。 Spark正在为Kafka消费者使用大致相同的Java API,它只是将其分发到多台计算机的计划