我是新火花,请让我知道如何使用Apache Spark中来自kafka主题的python读取json数据。 我尝试遵循以下代码,该代码适用于单行json,但不适用于多行json
*kafkaStream = KafkaUtils.createStream(ssc, k_host+':'+k_port, 'spark-streaming', {k_topic:1})
kafkaStream.pprint()
lines = kafkaStream.map(lambda row : row[1])*
谢谢。