如何在应用agg函数之前将十进制值限制为2位数?

时间:2017-01-17 19:40:08

标签: scala apache-spark apache-spark-sql apache-spark-1.5

我正在跟踪堆栈溢出帖子中的this解决方案,我唯一的要求是如何在应用df.agg(sum())之前将我想要求和的值限制为小数点后的2位数功能

例如:我有类似下面的值,sum函数对它进行求和,

2.346
1.549

但是我希望将值舍入为小数点后的2位数,如

2.35
1.55

在总结之前。我该怎么做?我无法找到函数sum().round的{​​{1}}之类的子函数。

注意:我使用的是Spark 1.5.1版本。

2 个答案:

答案 0 :(得分:9)

您可以使用bround

val df = Seq(2.346, 1.549).toDF("A")
df.select(bround(df("A"), 2)).show
+------------+
|bround(A, 2)|
+------------+
|        2.35|
|        1.55|
+------------+


df.agg(sum(bround(df("A"), 2)).as("appSum")).show
+------------------+
|            appSum|
+------------------+
|3.9000000000000004|
+------------------+
                                          ^
df.agg(sum(df("A")).as("exactSum")).show
+--------+
|exactSum|
+--------+
|   3.895|
+--------+

答案 1 :(得分:4)

上面的解决方案确实适用于spark 2.0版本,但对于像我这样仍在使用1.5。* +版本的人来说,这是可行的。(我使用了@Psidom建议的圆函数):

val df = Seq(2.346, 1.549).toDF("A")
df.select(bround(df("A"), 2)).show
+------------+
|bround(A, 2)|
+------------+
|        2.35|
|        1.55|
+------------+

val total=df.agg(sum(round(df.col(colName),2)).cast("double")).first.getDouble(0)
total: Double = 3.90