Spark接收来自Kafka主题的数据

时间:2018-02-12 13:13:52

标签: java apache-spark apache-kafka spark-streaming

我是Spark和Kafka的新手,所以我想知道,如果有一个简单的方法 “ 阅读 ”所以在java中说一个带有sparkstreaming的kafka主题。 我能找到的就是,我必须创建一个订阅特定主题的X[,-"sales"] 。我这样做并尝试测试Inputstream的一些函数,例如JavaInputDstreamcount()等,但没有真正发生。如果有人可以帮助我,我将不胜感激,谢谢:)

我的代码如下:

print()

0 个答案:

没有答案