标签: java apache-spark apache-spark-sql
我有超过50列,我想用spark SQL计算总和。我不想手动编写每个列名。我怎么能以编程方式完成呢
答案 0 :(得分:0)
像
val addNums = df.columns.map(case (c) => df(c)) .reduce(_ + _) val sumDF = df.select(expr(addNums).as("SumOfFifty"))