Scala-Spark(版本1.5.2)Dataframes拆分错误

时间:2017-04-06 11:30:50

标签: scala apache-spark spark-dataframe

我的输入文件foo.txt包含以下内容:

c1|c2|c3|c4|c5|c6|c7|c8|
00| |1.0|1.0|9|27.0|0||
01|2|3.0|4.0|1|10.0|1|1|

我想将其转换为Dataframe以执行一些Sql次查询:

var text = sc.textFile("foo.txt")
var header = text.first()
var rdd = text.filter(row => row != header)
case class Data(c1: String, c2: String, c3: String, c4: String, c5: String, c6: String, c7: String, c8: String)

在此之前一切正常,问题出现在下一句话中:

var df = rdd.map(_.split("\\|")).map(p => Data(p(0), p(1), p(2), p(3), p(4), p(5), p(6), p(7))).toDF()

如果我尝试使用df打印df.show,则会收到错误消息:

scala> df.show()
java.lang.ArrayIndexOutOfBoundsException: 7

我知道错误可能是因为分句。我还尝试使用以下语法拆分foo.txt

var df = rdd.map(_.split("""|""")).map(p => Data(p(0), p(1), p(2), p(3), p(4), p(5), p(6), p(7))).toDF()

然后我得到这样的东西:

scala> df.show()
+------+---------+----------+-----------+-----+-----------+----------------+----------------+
|  c1  |     c2  |    c3    |     c4    |  c5 |     c6    |        c7      |       c8       |
+------+---------+----------+-----------+-----+-----------+----------------+----------------+
|     0|        0|         ||           |    ||          1|               .|               0|
|     0|        1|         ||          2|    ||          3|               .|               0|
+------+---------+----------+-----------+-----+-----------+----------------+----------------+

因此,我的问题是如何才能正确地将此文件传递给Dataframe。

编辑:由于没有中间空格的||字段,错误位于第一行。这种类型的字段定义取决于示例工作正常或崩溃。

2 个答案:

答案 0 :(得分:3)

这是因为你的一条线比其他线短:

scala> var df = rdd.map(_.split("\\|")).map(_.length).collect()
df: Array[Int] = Array(7, 8)

您可以手动填写行(但需要手动处理每个案例):

val df = rdd.map(_.split("\\|")).map{row =>
  row match {
    case Array(a,b,c,d,e,f,g,h) => Data(a,b,c,d,e,f,g,h)
    case Array(a,b,c,d,e,f,g) => Data(a,b,c,d,e,f,g," ")
  }
}

scala> df.show()
+---+---+---+---+---+----+---+---+
| c1| c2| c3| c4| c5|  c6| c7| c8|
+---+---+---+---+---+----+---+---+
| 00|   |1.0|1.0|  9|27.0|  0|   |
| 01|  2|3.0|4.0|  1|10.0|  1|  1|
+---+---+---+---+---+----+---+---+

编辑:

更通用的解决方案是这样的:

val df = rdd.map(_.split("\\|", -1)).map(_.slice(0,8)).map(p => Data(p(0), p(1), p(2), p(3), p(4), p(5), p(6), p(7))).toDF()

如果您假设您始终拥有正确数量的分隔符,则可以安全地使用此语法截断最后一个值。

答案 1 :(得分:2)

我的建议是使用databrick的csv解析器。

链接:https://github.com/databricks/spark-csv

加载您的示例:

我加载了一个类似于你的样本文件:

c1|c2|c3|c4|c5|c6|c7|c8|
00| |1.0|1.0|9|27.0|0||
01|2|3.0|4.0|1|10.0|1|1|

要创建数据框,请使用以下代码:

  val df = sqlContext.read
    .format("com.databricks.spark.csv")
    .option("header", "true") // Use first line of all files as header
    .option("inferSchema", "true") // Automatically infer data types
    .option("delimiter", "|") // default is ","
    .load("foo.txt")
    .show

我得到了以下输出

+---+---+---+---+---+----+---+----+---+
| c1| c2| c3| c4| c5|  c6| c7|  c8|   |
+---+---+---+---+---+----+---+----+---+
|  0|   |1.0|1.0|  9|27.0|  0|null|   |
|  1|  2|3.0|4.0|  1|10.0|  1|   1|   |
+---+---+---+---+---+----+---+----+---+

这样您就不必费心自己解析文件了。您直接获得数据框