如何使用Scala在数据框中连接多个列

时间:2016-12-07 18:03:16

标签: scala apache-spark spark-dataframe

我正在尝试在数据框中连接多个列。我的列列表存在于变量中。我试图将该变量传递给concat函数但不能这样做。

Ex:base_tbl_columns包含列列表,我使用下面的代码来选择varibale中提到的所有列。

    scala> val base_tbl_columns  = scd_table_keys_df.first().getString(5).split(",")
    base_tbl_columns: Array[String] = Array(acct_nbr, account_sk_id, zip_code, primary_state, eff_start_date, eff_end_date, load_tm, hash_key, eff_flag)

val hist_sk_df_ld = hist_sk_df.select(base_tbl_columns.head,base_tbl_columns.tail: _*)

同样,我还有一个列表,我想用它来连接。但是concat函数没有使用.head和.tail参数。

scala> val hash_key_cols = scd_table_keys_df.first().getString(4)
    hash_key_cols: String = primary_state,zip_code

 Here I am hard coding the value primary_state and zip_code.
    .withColumn("hash_key_col",concat($"primary_state",$"zip_code"))

 Here I am passing the variable hash_key_cols .
   .withColumn("hash_key_col",concat(hash_key_cols ))

我可以使用下面的代码在python中完成此操作。

hist_sk_df = hist_tbl_df.join(broadcast(hist_tbl_lkp_df) ,primary_key_col,'inner' ).withColumn("eff_start_date",lit(load_dt))**.withColumn('hash_key_col',F.concat(*hash_key_cols))**.withColumn("hash_key",hash_udf('hash_key_col')).withColumn("eff_end_date",lit(eff_close_dt)).withColumn("load_tm",lit(load_tm)).withColumn("eff_flag",lit(eff_flag_curr))

1 个答案:

答案 0 :(得分:1)

或者:

val base_tbl_columns: Array[String] = ???

df.select(concat(base_tbl_columns.map(c => col(c)): _*))

或:

df.select(expr(s"""concat(${base_tbl_columns.mkstring(",")})"""))