Spark CSV Escape无效

时间:2016-10-27 15:03:16

标签: apache-spark spark-csv

我正在使用带有Scala 2.11的spark-core版本2.0.1。我有简单的代码来读取具有\ escapes的csv文件。

val myDA = spark.read
      .option("quote",null)
    .schema(mySchema)
    .csv(filePath)

根据文档\是csv reader的默认转义。但它不起作用。 Spark正在阅读\作为我数据的一部分。对于Ex:csv文件中的City列是 north rocks \,au 。我希望city列应该在代码中读作 northrocks,au 。但相反,spark将其读作 northrocks \ 并将 au 移至下一列。

我试过以下但没有奏效:

  • 明确定义的转义.option(“转义”,“\”)
  • 将转义更改为|或:在文件和代码中
  • 我尝试过使用spark-csv库

任何人面临同样的问题?我错过了什么吗?

由于

1 个答案:

答案 0 :(得分:0)

因此,escape只适用于引号。如果你想逃避,建议使用引号。

https://github.com/databricks/spark-csv/issues/390