如何格式化Spark DataFrame中的列

时间:2017-08-30 08:21:42

标签: scala apache-spark dataframe apache-spark-sql

使用这样的Spark DataFrame调用:

+---+---+
| c1| c2|
+---+---+
|  1|  6|
|  2|  7|
|  3|  8|
|  4|  9|
|  5| 10|
|  6| 11|
|  7| 12|
|  8| 13|
|  9| 14|
+---+---+

我希望生成一个新的DataFrame来获得c1和c2的分数,结果应该是这样的:

+---+---+------+
| c1| c2|    c3|
+---+---+------+
|  9| 14|0.6429|
|  8| 13|0.6154|
|  7| 12|0.5833|
|  6| 11|0.5455|
|  5| 10|0.5000|
|  4|  9|0.4444|
|  3|  8|0.3750|
|  2|  7|0.2857|
|  1|  6|0.1667|
+---+---+------+

然而,当我使用代码时

res.withColumn("c3", col("c1")/col("c2")).orderBy(col("c3").desc).show()

我得到了:

+---+---+-------------------+
| c1| c2|                 c3|
+---+---+-------------------+
|  9| 14| 0.6428571428571429|
|  8| 13| 0.6153846153846154|
|  7| 12| 0.5833333333333334|
|  6| 11| 0.5454545454545454|
|  5| 10|                0.5|
|  4|  9| 0.4444444444444444|
|  3|  8|              0.375|
|  2|  7| 0.2857142857142857|
|  1|  6|0.16666666666666666|
+---+---+-------------------+

如何将c3格式化为所需格式而无需生成其他DataFrame? (我想在一行代码中得到df的结果,我怎么能实现这个?)

2 个答案:

答案 0 :(得分:4)

您可以使用format_number函数

import org.apache.spark.sql.functions._
res.withColumn("c3", format_number(col("c1")/col("c2"), 4)).orderBy(col("c3").desc).show()

答案 1 :(得分:0)

或者您也可以将结果转换为正确的ActionBarContextView actionBar = getWindow().getDecorView().findViewById(R.id.action_mode_bar); actionBar.setBackgroundColor(WhateverColorYouWant);

DecimalType()