我在本地Windows 10 PC上运行了Spark 2.3.4。我正在尝试使用覆盖模式保存目标文件,理想情况下应覆盖目标位置中的文件。我正在使用下面的代码。
#write file to dra loaction
df_merged\
.coalesce(1)\
.write\
.format("csv")\
.mode("overwrite")\
.option("timestampFormat", "yyyy-MM-dd HH:mm:ss")\
.option("header", True)\
.save("path\\target_folder")
但这会引发错误。
java.io.FileNotFoundException: File file:/C:/Users/Desktop/INOUT Tables/target_folder/part-00000-5795af5f-832b-452f-b0dc-5c7d2a1f6808-c000.csv does not exist
也尝试过此解决方案。 How to overwrite the output directory in spark
Spark正在删除现有文件,然后引发错误。