我看到错误 DataFrame中不能有地图类型列,该列在使用Spark MapType时调用设置操作。
下面是我编写的用于重现它的示例代码。我知道发生这种情况是因为MapType对象不可哈希,但是我有一个用例,需要执行以下操作。
val schema1 = StructType(Seq(
StructField("a", MapType(StringType, StringType, true)),
StructField("b", StringType, true)
))
val df = spark.read.schema(schema1).json("path")
val filteredDF = df.filter($"b" === "apple")
val otherDF = df.except(filteredDF)
有任何解决方法的建议吗?