Failed to set permissions of path: \tmp\hadoop-MayPayne\mapred\staging\MayPayne2016979439\.staging to 0700
我在执行MapReduce作业时遇到此错误,我正在使用hadoop 1.0.4,然后我知道这是一个已知问题,我尝试使用1.2.0,但问题仍然存在。我能否知道他们已经解决了这个问题的hadoop版本。
提前谢谢大家
答案 0 :(得分:11)
我在Windows 7上运行nutch-1.7时遇到了同样的异常。
bin/nutch crawl urls -dir crawl11 -depth 1 -topN 5
以下步骤对我有用
修改$ {NUTCH_HOME} /conf/nutch-site.xml以启用覆盖实现,如下所示:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.file.impl</name>
<value>com.conga.services.hadoop.patch.HADOOP_7682.WinLocalFileSystem</value>
<description>Enables patch for issue HADOOP-7682 on Windows</description>
</property>
</configuration>
照常运行您的工作(使用Cygwin)。
答案 1 :(得分:5)
下载hadoop-core-0.20.2.jar并将其放在nutcher的lib目录上解决了我的问题
(如果是Windows)如果仍未解决,请尝试使用此hadoop's patch
答案 2 :(得分:3)
设置以下vm参数
-Dhadoop.tmp.dir=<A directory location with write permission>
覆盖默认的/ tmp目录
同样使用hadoop-core-0.20.2.jar(http://mvnrepository.com/artifact/org.apache.hadoop/hadoop-core/0.20.2)将解决报告的问题。
答案 3 :(得分:-4)
我设法通过稍微更改hadoop-core jar文件来解决这个问题。在hadoop-core.jar文件中更改了FileUtil.java中的错误导致方法,并重新编译并包含在我的eclipse项目中。现在错误消失了。我建议你们每个人都这样做。