不支持单位类型的Spark Scala模式

时间:2018-07-23 08:55:32

标签: scala apache-spark

我是Spark Scala的新手。

我有一个udf,并且运行失败返回 线程“主”中的异常java.lang.UnsupportedOperationException:不支持单元类型的模式

代码:

  val stay_dates = udf( (ci: Date, co: Date) => {
    val miliseconds_per_day = 24*60*60*1000
    println(miliseconds_per_day + " miliseconds_per_day!!!")
    val nDays = ( co.getTime() - ci.getTime() ) / miliseconds_per_day
    (0L until nDays).map(i => new Date(ci.getTime() + i * miliseconds_per_day) )
    println(nDays + " nDays!!!")
  }
  )

0 个答案:

没有答案