我使用kafka监控LocalFile和SparkStreaming的变化来进行分析。但是我无法从kafka中提取数据,因为数据的格式是JSON。
When I tap the command bin/kafka-console-consumer.sh --bootstrap-server master:9092,slave1:9092,slave2:9092 --topic kafka-streaming --from-beginning,
数据格式为:
{
"schema": {
"type": "string",
"optional": false
},
"payload": "{\"like_count\": 594, \"view_count\": 49613, \"user_name\": \" w\", \"play_url\": \"http://upic/2019/04/08/12/BMjAxOTA0MDgxMjQ4MTlfMjA3ODc2NTY2XzEyMDQzOTQ0MTc4XzJfMw==_b_Bfa330c5ca9009708aaff0167516a412d.mp4?tag=1-1555248600-h-0-gjcfcmzmef-954d5652f100c12e\", \"description\": \"ţ ų ඣ 9 9 9 9\", \"cover\": \"http://uhead/AB/2016/03/09/18/BMjAxNjAzMDkxODI1MzNfMjA3ODc2NTY2XzJfaGQ5OQ==.jpg\", \"video_id\": 5235997527237673952, \"comment_count\": 39, \"download_url\": \"http://2019/04/08/12/BMjAxOTA0MDgxMjQ4MTlfMjA3ODc2NTY2XzEyMDQzOTQ0MTc4XzJfMw==_b_Bfa330c5ca9009708aaff0167516a412d.mp4?tag=1-1555248600-h-1-zdpjkouqke-5862405191e4c1e4\", \"user_id\": 207876566, \"video_create_time\": \"2019-04-08 12:48:21\", \"user_sex\": \"F\"}"
}
spark的版本为2.3.0,而kafka的版本为1.1.0。 spark-streaming-kafka的版本是0-10_2.11-2.3.0。
PAYOAD列中的JSON数据是我要处理和分析的。如何更改代码以获取JSON数据
答案 0 :(得分:1)
分别使用org.apache.kafka.common.serialization.StringDeserializer
和org.apache.kafka.common.serialization.StringSerializer
来消费数据并将数据发送到kafka主题。
这样,您将获得一个消耗的字符串,可以很容易地将其转换为JSON对象using JSONParser