是否可以在Spark JavaDStream上应用分区程序

时间:2018-12-26 13:47:18

标签: apache-spark

我们是Spark的新手,现在使用它来以JavaInputDStream方式读取Kafka消息,想知道是否可以在Spark JavaDStream上应用分区程序。

据我所知,Spark正在将流分为批(RDD)和RDD划分为分区,那么可以说Spark中的分区是面向时间的,而不是面向内容的吗? 是否可以归档具有相同功能的记录(例如哈希函数的输出)在相同的执行程序/节点上执行?

0 个答案:

没有答案