Spark,在Scala中添加具有相同值的新列

时间:2016-07-26 10:39:10

标签: scala apache-spark spark-dataframe

我在Spark-Scala环境中遇到withColumn函数的问题。 我想在我的DataFrame中添加一个新的列:

+---+----+---+
|  A|   B|  C|
+---+----+---+
|  4|blah|  2|
|  2|    |  3|
| 56| foo|  3|
|100|null|  5|
+---+----+---+

成为:

+---+----+---+-----+
|  A|   B|  C|  D  |
+---+----+---+-----+
|  4|blah|  2|  750|
|  2|    |  3|  750|
| 56| foo|  3|  750|
|100|null|  5|  750|
+---+----+---+-----+

对于我的DataFrame中的每一行,一列中的D列重复了N次。

代码如下:

var totVehicles : Double = df_totVehicles(0).getDouble(0); //return 750

变量totVehicles返回正确的值,它有效!

第二个DataFrame必须计算2个字段(id_zipcode,n_vehicles),并添加第三列(具有相同的值-750):

var df_nVehicles =
df_carPark.filter(
      substring($"id_time",1,4) < 2013
    ).groupBy(
      $"id_zipcode"
    ).agg(
      sum($"n_vehicles") as 'n_vehicles
    ).select(
      $"id_zipcode" as 'id_zipcode,
      'n_vehicles
    ).orderBy(
      'id_zipcode,
      'n_vehicles
    );

最后,我使用withColumn函数添加新列:

var df_nVehicles2 = df_nVehicles.withColumn(totVehicles, df_nVehicles("n_vehicles") + df_nVehicles("id_zipcode"))

但Spark告诉我这个错误:

 error: value withColumn is not a member of Unit
         var df_nVehicles2 = df_nVehicles.withColumn(totVehicles, df_nVehicles("n_vehicles") + df_nVehicles("id_zipcode"))
你能帮帮我吗? 非常感谢你!

1 个答案:

答案 0 :(得分:30)

lit函数用于将文字值添加为列

import org.apache.spark.sql.functions._
df.withColumn("D", lit(750))