标签: apache-spark spark-streaming
我们看到驱动程序未安排其他并发作业(尽管当前批处理花费的时间超过了指定的批处理间隔,但我们将spark.streaming.concurrentjobs设置为10。
有时我们会看到3个有效批次,但是非常罕见。当前时钟时间和最近的批处理时间之间的时差不断增加。我们如何获得更多要执行的并发批处理?我们从卡夫卡消费,那里什么都没变。这曾经对我们有用,但是不确定问题出在哪里。