在writeStream到Elasticsearch之前,如何将JSON数组转换为行?

时间:2018-11-23 11:42:11

标签: apache-spark elasticsearch spark-structured-streaming elasticsearch-spark

跟进this question

我具有以下格式的JSON流数据

|  A    | B                                        |
|-------|------------------------------------------|
|  ABC  |  [{C:1, D:1}, {C:2, D:4}]                | 
|  XYZ  |  [{C:3, D :6}, {C:9, D:11}, {C:5, D:12}] |

我需要将其转换为以下格式

|   A   |  C  |  D   |
|-------|-----|------|
|  ABC  |  1  |  1   |
|  ABC  |  2  |  4   |
|  XYZ  |  3  |  6   |
|  XYZ  |  9  |  11  |
|  XYZ  |  5  |  12  | 

要实现这一点,请按照上一个问题的建议进行转换。

val df1 = df0.select($"A", explode($"B")).toDF("A", "Bn")

val df2 = df1.withColumn("SeqNum", monotonically_increasing_id()).toDF("A", "Bn", "SeqNum") 

val df3 = df2.select($"A", explode($"Bn"), $"SeqNum").toDF("A", "B", "C", "SeqNum")

val df4 = df3.withColumn("dummy", concat( $"SeqNum", lit("||"), $"A"))

val df5 = df4.select($"dummy", $"B", $"C").groupBy("dummy").pivot("B").agg(first($"C")) 

val df6 = df5.withColumn("A", substring_index(col("dummy"), "||", -1)).drop("dummy")

现在我需要将数据保存到ElasticSearch。

 df6.writeStream
  .outputMode("complete")
  .format("es")
  .option("es.resource", "index/type")
  .option("es.nodes", "localhost")
  .option("es.port", 9200)
  .start()
  .awaitTermination()

我收到一个错误消息,表明ElasticSearch不支持Append输出模式。在Append模式下,由于无法在writeStream模式下进行聚合而无法写入Append。我能够在完整模式下写入控制台。如何立即将数据写入ElasticSearch

任何帮助将不胜感激。

1 个答案:

答案 0 :(得分:1)

此处无需pivot或进行汇总。如果B列确实是Array[Map[String, String]](在SQL类型中为array<map<string, string>>),那么您只需要一个简单的selectwithColumn

df
  .withColumn("B", explode($"B"))
  .select($"A", $"B"("C") as "C", $"B"("D") as "D")