在MapType数据框上使用except时发生火花错误

时间:2019-03-21 07:01:55

标签: scala apache-spark apache-spark-sql

我看到错误 DataFrame中不能有地图类型列,该列在使用Spark MapType时调用设置操作

下面是我编写的用于重现它的示例代码。我知道发生这种情况是因为MapType对象不可哈希,但是我有一个用例,需要执行以下操作。

val schema1 = StructType(Seq(
                 StructField("a", MapType(StringType, StringType, true)),
                 StructField("b", StringType, true)
              ))
val df = spark.read.schema(schema1).json("path")
val filteredDF = df.filter($"b" === "apple")
val otherDF = df.except(filteredDF)

有任何解决方法的建议吗?

0 个答案:

没有答案
相关问题