如何使用Scala在Spark中的所有DataFrame df
列上应用条件替换?
df.withColumn("make", when(col("make").equalTo("true"), 1).otherwise(0)
答案 0 :(得分:1)
map
超过df.columns
并生成您的表达式:
val expression = df1.columns
.map{c => when(col(c).equalTo("Tesla") , "S").otherwise("DDD").as(c) }
然后select
:
df1.select(expression : _* ).show(false)