由于_SUCCESS文件

时间:2017-07-25 19:13:02

标签: apache-spark apache-spark-sql spark-dataframe spark-avro

我正在使用伟大的数据库连接器来读取/写入avro文件。 我有以下代码

df.write.mode(SaveMode.Overwrite).avro(someDirectory)

问题是当我尝试使用时读取此目录     sqlContext.read.avro(someDirectory)

它以

失败
java.io.IOException: Not an Avro data file

由于该目录中存在_SUCCESS文件。

设置sc.hadoopConfiguration.set("mapreduce.fileoutputcommitter.marksuccessfuljobs", "false")可以解决问题,但我宁愿避免这样做。

这听起来像是一个非常普遍的问题所以我可能做错了什么?

0 个答案:

没有答案