用NULL删除任何行

时间:2019-06-26 15:16:18

标签: scala apache-spark

我有一个小问题。我想删除任何包含'NULL'的行。

这是我的输入文件:

matricule,dateins,cycle,specialite,bourse,sport
0000000001,1999-11-22,Master,IC,Non,Non
0000000002,2014-02-01,Null,IC,Null,Oui
0000000003,2006-09-07,Null,Null,Oui,Oui
0000000004,2008-12-11,Master,IC,Oui,Oui
0000000005,2006-06-07,Master,SI,Non,Oui

我做了很多研究,发现了一个名为drop(any)的函数。基本上删除所有包含NULL值的行。我尝试在下面的代码中使用它,但无法正常工作

val x = sc.textFile("/home/amel/one")

val re = x.map(row => {
  val cols = row.split(",")
  val cycle = cols(2)
  val years = cycle match {
    case "License" => "3 years"
    case "Master" => "3 years"
    case "Ingeniorat" => "5 years"
    case "Doctorate" => "3 years"
    case _ => "other"
  }
  (cols(1).split("-")(0) + "," + years + "," + cycle + "," + cols(3), 1)
}).reduceByKey(_ + _)
re.collect.foreach(println)

这是我代码的当前结果:

(1999,3 years,Master,IC,57)
(2013,NULL,Doctorat,SI,44)
(2013,NULL,Licence,IC,73)
(2009,5 years,Ingeniorat,Null,58)
(2011,3 years,Master,Null,61)
(2003,5 years,Ingeniorat,Null,65)
(2019,NULL,Doctorat,SI,80)

但是,我希望结果像这样:

(1999, 3 years, Master, IC)

即,应删除任何包含“ NULL”的行。

1 个答案:

答案 0 :(得分:0)

与SO上的以下问题类似但不重复的问题:Filter spark DataFrame on string contains

您可以在阅读该RDD时对其进行过滤。

val x = sc.textFile("/home/amel/one").filter(!_.toLowerCase.contains("null"))