从Spark中的数据框选择值

时间:2019-01-17 06:58:30

标签: apache-spark-sql

我想使用循环选择特定的值。 我有一个名为df的数据框,其中包含很多列,并且我想选择小于1和NULL的值。有没有有效的方法来获取值?

//select values from column 1  
val a = df.filter(df("1") < 1||df("1").isNull)

1 个答案:

答案 0 :(得分:0)

有什么方法可以在以下代码中添加循环以处理几列  val a = df.filter(df(“ 1”)<1 || df(“ 1”)。isNull)