从kafka主题中读取数据并使用spark tempview进行汇总?

时间:2018-12-05 04:18:56

标签: apache-spark apache-kafka dataset

我想从kafka主题中读取数据,并创建spark tempview以按某些列分组?

+----+--------------------+
| key|               value|          
+----+--------------------+
|null|{"e":"trade","E":...|
|null|{"e":"trade","E":...|
|null|{"e":"trade","E":...|

但是我无法从tempview聚合数据?值列数据存储为字符串???

Dataset<Row> data = spark
                  .readStream()
                  .format("kafka")
                  .option("kafka.bootstrap.servers", "localhost:9092,localhost:9093")
                  .option("subscribe", "data2-topic")
                  .option("startingOffsets", "latest")
                  .option ("group.id", "test")
                  .option("enable.auto.commit", "true")
                  .option("auto.commit.interval.ms", "1000")          
                  .load();
          data.selectExpr("CAST(key AS STRING)", "CAST(value AS STRING)");
          data.createOrReplaceTempView("Tempdata");
          data.show();
Dataset<Row> df2=spark.sql("SELECT e FROM Tempdata group by e");
df2.show();

1 个答案:

答案 0 :(得分:0)

  

以字符串形式存储的值列数据?

是。。因为您CAST(value as STRING)

您将要使用from_json函数,该函数会将行加载到可以在其中搜索的适当数据框中。

有关示例,请参见Structured Streaming on Kafka上Databrick的博客

如果主要目标只是对某些字段进行分组,则可以选择KSQL。