标签: scala apache-spark apache-kafka spark-streaming
来自Spark Streaming Programming Guide:
将逻辑扩展到在群集上运行,分配给Spark Streaming应用程序的核心数必须大于接收者数量。否则系统将接收数据,但无法处理数据。
这是否意味着如果我在整个Spark群集中有16个CPU核心,我无法读取超过15个Kafka主题的数据?
答案 0 :(得分:4)
仅当您使用基于消费者/接收者的API时。这不适用于直接流。
看看here了解两者之间的差异