我正在使用带有Scala 2.11的spark-core版本2.0.1。我有简单的代码来读取具有\ escapes的csv文件。
val myDA = spark.read
.option("quote",null)
.schema(mySchema)
.csv(filePath)
根据文档\是csv reader的默认转义。但它不起作用。 Spark正在阅读\作为我数据的一部分。对于Ex:csv文件中的City列是 north rocks \,au 。我希望city列应该在代码中读作 northrocks,au 。但相反,spark将其读作 northrocks \ 并将 au 移至下一列。
我试过以下但没有奏效:
任何人面临同样的问题?我错过了什么吗?
由于
答案 0 :(得分:0)
因此,escape只适用于引号。如果你想逃避,建议使用引号。