输入:
f1 : [["2017-08-08","2017/08/08"],["2017-08-08","2017/08/08"]]
f1架构:ArrayType(ArrayType(StringType))
我想使用spark UDF将日期值从String转换为日期格式。
这里输入可能有Array[Any]
。我写过udf,它适用于像["2017-08-07","2013/08/02"]
这样的单维值。对于单维,我的udf将是:
def toDateFormatUdf(dateFormat:String) = udf(( dateValue: mutable.WrappedArray[_]) => dateValue match{
case null => null
case datevalue: mutable.WrappedArray[String] => datevalue.map(date => new java.sql.Date(new SimpleDateFormat(dateFormat).parse(String.valueOf(date)).getTime))
})
我尝试使用Seq[Row]
类型作为UDF参数但无法形成逻辑。有没有办法在Scala中为多维数组实现UDF?
答案 0 :(得分:0)
如果数据格式一致,您可以cast
,但此处会排除yyyy/MM/dd
条记录:
val df = Seq((1L, Seq(Seq("2017-08-08", "2017/08/08"), Seq("2017-08-08","2017/08/08")))).toDF("id", "dates")
df.select($"dates".cast("array<array<date>>")).show(1, false)
+----------------------------------------------------------------+
|dates |
+----------------------------------------------------------------+
|[WrappedArray(2017-08-08, null), WrappedArray(2017-08-08, null)]|
+----------------------------------------------------------------+
这里我只重写格式:
val f1 = "(^[0-9]{4})-([0-9]{2})-([0-9]{2})$".r
val f2 = "(^[0-9]{4})/([0-9]{2})/([0-9]{2})$".r
val reformat = udf((xxs: Seq[Seq[String]]) => xxs match {
case null => null
case xxs => xxs.map {
case null => null
case xs => xs.map { x=> {
x match {
case null => null
case f1(_, _, _) => x
case f2(year, month, day) => s"${year}-${month}-${day}"
case _ => null
}
}}
}
})
并施放
df.select(reformat($"dates")).show(1, false)
+----------------------------------------------------------------------------+
|UDF(dates) |
+----------------------------------------------------------------------------+
|[WrappedArray(2017-08-08, 2017-08-08), WrappedArray(2017-08-08, 2017-08-08)]|
+----------------------------------------------------------------------------+
以避免对SimpleDateFormat
进行不必要的初始化。