Scala UDF返回“不支持单位类型的模式”

时间:2018-07-02 15:55:45

标签: scala apache-spark

我想对数据框中的列进行更改。该列是一个整数数组。我想替换数组的元素,从另一个数组获取索引,然后用第三个数组的元素替换该元素。示例:我有三个列C1,C2,C3,所有三个数组。我要替换C3中的元素,如下所示。

C3[C2[i]] = C1[i].

我写了以下UDF:

def UpdateHist = udf((CRF_count: Seq[Long], Day: Seq[String], History: Seq[Int])=> for(i <- 0 to Day.length-1){History.updated(Day(i).toInt-1 , CRF_count(i).toInt)})

并执行以下操作:

histdate3.withColumn("History2", UpdateHist2(col("CRF_count"), col("Day"), col("History"))).show()

但是它返回如下错误:

scala> histdate3.withColumn("History2", UpdateHist2(col("CRF_count"), col("Day"), col("History"))).show()
  

java.lang.UnsupportedOperationException:不支持单元类型的模式     在org.apache.spark.sql.catalyst.ScalaReflection $ .schemaFor(ScalaReflection.scala:733)     在org.apache.spark.sql.catalyst.ScalaReflection $ .schemaFor(ScalaReflection.scala:671)     在org.apache.spark.sql.functions $ .udf(functions.scala:3100)     在UpdateHist2(:25)     ... 48消失

我认为我要返回一些不同的类型,即不支持的View类型。请帮我解决这个问题。

1 个答案:

答案 0 :(得分:1)

您的for循环返回Unit,因此出现错误消息。您可以使用for-yield返回值,但是由于Seq应该连续为updated,因此简单的foldLeft会更好:

import org.apache.spark.sql.functions._

val df = Seq(
  (Seq(101L, 102L), Seq("1", "2"), Seq(11, 12)),
  (Seq(201L, 202L, 203L), Seq("2", "3"), Seq(21, 22, 23))
).toDF("C1", "C2", "C3")
// +---------------+------+------------+
// |C1             |C2    |C3          |
// +---------------+------+------------+
// |[101, 102]     |[1, 2]|[11, 12]    |
// |[201, 202, 203]|[2, 3]|[21, 22, 23]|
// +---------------+------+------------+

def updateC3 = udf( (c1: Seq[Long], c2: Seq[String], c3: Seq[Int]) =>
  c2.foldLeft( c3 ){ (acc, i) =>
    val idx = i.toInt - 1
    acc.updated(idx, c1(idx).toInt)
  }
)

df.withColumn("C3", updateC3($"C1", $"C2", $"C3")).show(false)
// +---------------+------+--------------+
// |C1             |C2    |C3            |
// +---------------+------+--------------+
// |[101, 102]     |[1, 2]|[101, 102]    |
// |[201, 202, 203]|[2, 3]|[21, 202, 203]|
// +---------------+------+--------------+