我正在使用伟大的数据库连接器来读取/写入avro文件。 我有以下代码
df.write.mode(SaveMode.Overwrite).avro(someDirectory)
问题是当我尝试使用时读取此目录 sqlContext.read.avro(someDirectory)
它以
失败java.io.IOException: Not an Avro data file
由于该目录中存在_SUCCESS文件。
设置sc.hadoopConfiguration.set("mapreduce.fileoutputcommitter.marksuccessfuljobs", "false")
可以解决问题,但我宁愿避免这样做。
这听起来像是一个非常普遍的问题所以我可能做错了什么?