我正在跟踪堆栈溢出帖子中的this解决方案,我唯一的要求是如何在应用df.agg(sum())
之前将我想要求和的值限制为小数点后的2位数功能
例如:我有类似下面的值,sum函数对它进行求和,
2.346
1.549
但是我希望将值舍入为小数点后的2位数,如
2.35
1.55
在总结之前。我该怎么做?我无法找到函数sum().round
的{{1}}之类的子函数。
注意:我使用的是Spark 1.5.1版本。
答案 0 :(得分:9)
您可以使用bround:
val df = Seq(2.346, 1.549).toDF("A")
df.select(bround(df("A"), 2)).show
+------------+
|bround(A, 2)|
+------------+
| 2.35|
| 1.55|
+------------+
df.agg(sum(bround(df("A"), 2)).as("appSum")).show
+------------------+
| appSum|
+------------------+
|3.9000000000000004|
+------------------+
^
df.agg(sum(df("A")).as("exactSum")).show
+--------+
|exactSum|
+--------+
| 3.895|
+--------+
答案 1 :(得分:4)
上面的解决方案确实适用于spark 2.0版本,但对于像我这样仍在使用1.5。* +版本的人来说,这是可行的。(我使用了@Psidom建议的圆函数):
val df = Seq(2.346, 1.549).toDF("A")
df.select(bround(df("A"), 2)).show
+------------+
|bround(A, 2)|
+------------+
| 2.35|
| 1.55|
+------------+
val total=df.agg(sum(round(df.col(colName),2)).cast("double")).first.getDouble(0)
total: Double = 3.90