标签: apache-spark-sql
我想使用循环选择特定的值。 我有一个名为df的数据框,其中包含很多列,并且我想选择小于1和NULL的值。有没有有效的方法来获取值?
df
//select values from column 1 val a = df.filter(df("1") < 1||df("1").isNull)
答案 0 :(得分:0)
有什么方法可以在以下代码中添加循环以处理几列 val a = df.filter(df(“ 1”)<1 || df(“ 1”)。isNull)