如何使用SparkStreaming

时间:2019-04-15 04:30:31

标签: scala apache-kafka

我使用kafka监控LocalFile和SparkStreaming的变化来进行分析。但是我无法从kafka中提取数据,因为数据的格式是JSON。

When I tap the command bin/kafka-console-consumer.sh --bootstrap-server master:9092,slave1:9092,slave2:9092  --topic kafka-streaming --from-beginning, 

数据格式为:

{
  "schema": {
    "type": "string",
    "optional": false
  },
  "payload": "{\"like_count\": 594, \"view_count\": 49613, \"user_name\": \"   w\", \"play_url\": \"http://upic/2019/04/08/12/BMjAxOTA0MDgxMjQ4MTlfMjA3ODc2NTY2XzEyMDQzOTQ0MTc4XzJfMw==_b_Bfa330c5ca9009708aaff0167516a412d.mp4?tag=1-1555248600-h-0-gjcfcmzmef-954d5652f100c12e\", \"description\": \"ţ ų   ඣ    9 9 9 9\", \"cover\": \"http://uhead/AB/2016/03/09/18/BMjAxNjAzMDkxODI1MzNfMjA3ODc2NTY2XzJfaGQ5OQ==.jpg\", \"video_id\": 5235997527237673952, \"comment_count\": 39, \"download_url\": \"http://2019/04/08/12/BMjAxOTA0MDgxMjQ4MTlfMjA3ODc2NTY2XzEyMDQzOTQ0MTc4XzJfMw==_b_Bfa330c5ca9009708aaff0167516a412d.mp4?tag=1-1555248600-h-1-zdpjkouqke-5862405191e4c1e4\", \"user_id\": 207876566, \"video_create_time\": \"2019-04-08 12:48:21\", \"user_sex\": \"F\"}"
}

spark的版本为2.3.0,而kafka的版本为1.1.0。 spark-streaming-kafka的版本是0-10_2.11-2.3.0。

PAYOAD列中的JSON数据是我要处理和分析的。如何更改代码以获取JSON数据

1 个答案:

答案 0 :(得分:1)

分别使用org.apache.kafka.common.serialization.StringDeserializerorg.apache.kafka.common.serialization.StringSerializer来消费数据并将数据发送到kafka主题。 这样,您将获得一个消耗的字符串,可以很容易地将其转换为JSON对象using JSONParser