完成工作后不要删除临时目录

时间:2017-03-31 16:16:15

标签: apache-spark

在提交spark作业时,我收到此错误:

java.io.IOException: Failed to delete: C:\Users\Me\AppData\Local\Temp\spark-7cfa4c84-2d14-4666-aa7f-9dc84474fe89

我安装了winutils二进制文件,并且chmod 777this article运行/tmp/hive。我在Windows 10 64位上运行spark版本2.0.0。我尝试以管理员身份运行,并仔细检查目录是否存在(它确实存在)。

0 个答案:

没有答案