是否可以使用带有spark UDF的Option

时间:2016-09-08 12:57:13

标签: scala apache-spark

我想使用Option作为我的函数的输入类型。

udf((oa: Option[String], ob: Option[String])) => …

以更实用的方式处理null值。

有办法吗?

1 个答案:

答案 0 :(得分:3)

据我所知,这不是直接可能的。没有什么能阻止你用Options包装参数:

udf((oa: String, ob: String) => (Option(oa), Option(ob)) match {
  ...
})

使用Dataset编码器:

val df = Seq(("a", None), ("b", Some("foo"))).toDF("oa", "ob")

df.as[(Option[String], Option[String])]

或添加一些隐式转化:

implicit def asOption[T](value: T) : Option[T] = Option(value)

def foo(oa: Option[String], ob: Option[String]) = {
  oa.flatMap(a => ob.map(b => s"$a - $b"))
}

def wrap[T, U, V](f: (Option[T], Option[U]) => V) = 
  (t: T, u: U) => f(Option(t), Option(u))

val foo_ = udf(wrap(foo))
df.select(foo_($"oa", $"ob"))