如何使用from_json与Kafka connect 0.10和Spark Structured Streaming?

时间:2017-02-28 10:54:51

标签: scala apache-spark apache-kafka spark-structured-streaming

我试图重现[Databricks] [1]中的示例并将其应用于Kafka的新连接器并激发结构化流媒体,但我无法使用Spark中的开箱即用方法正确解析JSON。 ..

注意:该主题以JSON格式写入Kafka。

val ds1 = spark
          .readStream
          .format("kafka")
          .option("kafka.bootstrap.servers", IP + ":9092")
          .option("zookeeper.connect", IP + ":2181")
          .option("subscribe", TOPIC)
          .option("startingOffsets", "earliest")
          .option("max.poll.records", 10)
          .option("failOnDataLoss", false)
          .load()

以下代码不起作用,我相信这是因为列json是一个字符串而且与from_json签名方法不匹配...

    val df = ds1.select($"value" cast "string" as "json")
                .select(from_json("json") as "data")
                .select("data.*")

任何提示?

[更新]工作示例: https://github.com/katsou55/kafka-spark-structured-streaming-example/blob/master/src/main/scala-2.11/Main.scala

1 个答案:

答案 0 :(得分:18)

首先,您需要为JSON消息定义架构。例如

val schema = new StructType()
  .add($"id".string)
  .add($"name".string)

现在,您可以在from_json方法中使用此架构,如下所示。

val df = ds1.select($"value" cast "string" as "json")
            .select(from_json($"json", schema) as "data")
            .select("data.*")