对于下面的条件 - 已为Tuple2(BigDecimal,BigDecimal)
(r.get(0), r.get(1)) match {
case (r0: BigDecimal, r1: BigDecimal) => (bigDecimalNullToZero(r0), bigDecimalNullToZero(r1))
case (r0,r1) => {
error(s"Unable to compare [$r0] and [$r1]"); (0L,0L)
}
}
为什么不能识别比赛?
答案 0 :(得分:6)
我将假设r
在这种情况下属于org.apache.spark.sql.Row
类型 - 如果是这种情况,您只需使用错误BigDecimal 类 - 您与Scala的内置scala.math.BigDecimal
匹配,而Spark则使用java.math.BigDecimal
。
所以 - 如果你使用Java的类匹配,这应该按预期工作:
(r.get(0), r.get(1)) match {
case (r0: java.math.BigDecimal, r1: java.math.BigDecimal) => (bigDecimalNullToZero(r0), bigDecimalNullToZero(r1))
case (r0,r1) => {
error(s"Unable to compare [$r0] and [$r1]"); (0L,0L)
}
}
我用这个完整的例子来测试这个:
import spark.implicits._
val df = Seq(
(BigDecimal(2.1), BigDecimal(2.3)) // using Scala's BigDecimal to build DF
).toDF("name", "hit_songs")
df.foreach { r: Row => (r.get(0), r.get(1)) match {
case (s1: BigDecimal, s2: BigDecimal) => println("found Scala BigDecimals")
case (s1: java.math.BigDecimal, s2: java.math.BigDecimal) => println("found Java BigDecimals")
case (s1, s2) => println(s"Not found")
}}
// prints: found Java BigDecimals
P.S。您通常可以简化这些"提取"使用行unapply
函数从一行开始,即匹配Row(a, b, ...)
:
df.map {
case Row(s1: java.math.BigDecimal, s2: java.math.BigDecimal, _*) => (s1, s2)
}