使用mode(“ overwrite”)覆盖pyspark中的目标文件夹不起作用

时间:2019-11-27 11:24:00

标签: pyspark-dataframes

我在本地Windows 10 PC上运行了Spark 2.3.4。我正在尝试使用覆盖模式保存目标文件,理想情况下应覆盖目标位置中的文件。我正在使用下面的代码。

#write file to dra loaction
df_merged\
        .coalesce(1)\
        .write\
        .format("csv")\
        .mode("overwrite")\
        .option("timestampFormat", "yyyy-MM-dd HH:mm:ss")\
        .option("header",  True)\
        .save("path\\target_folder")

但这会引发错误。

java.io.FileNotFoundException: File file:/C:/Users/Desktop/INOUT Tables/target_folder/part-00000-5795af5f-832b-452f-b0dc-5c7d2a1f6808-c000.csv does not exist

也尝试过此解决方案。 How to overwrite the output directory in spark

Spark正在删除现有文件,然后引发错误。

0 个答案:

没有答案