无法设置路径:\ tmp的权限

时间:2013-06-20 08:25:32

标签: hadoop

Failed to set permissions of path: \tmp\hadoop-MayPayne\mapred\staging\MayPayne2016979439\.staging to 0700 

我在执行MapReduce作业时遇到此错误,我正在使用hadoop 1.0.4,然后我知道这是一个已知问题,我尝试使用1.2.0,但问题仍然存在。我能否知道他们已经解决了这个问题的hadoop版本。

提前谢谢大家

4 个答案:

答案 0 :(得分:11)

我在Windows 7上运行nutch-1.7时遇到了同样的异常。

bin/nutch crawl urls -dir crawl11 -depth 1 -topN 5

以下步骤对我有用

  1. Download部分下载预先构建的JAR,patch-hadoop_7682-1.0.x-win.jar。你可以得到hadoop的步骤。
  2. 将patch-hadoop_7682-1.0.x-win.jar复制到$ {NUTCH_HOME} / lib目录
  3. 修改$ {NUTCH_HOME} /conf/nutch-site.xml以启用覆盖实现,如下所示:

    <?xml version="1.0"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    <!-- Put site-specific property overrides in this file. -->
    <configuration>
        <property>
            <name>fs.file.impl</name>
            <value>com.conga.services.hadoop.patch.HADOOP_7682.WinLocalFileSystem</value>
            <description>Enables patch for issue HADOOP-7682 on Windows</description>
        </property>
     </configuration>
    
  4. 照常运行您的工作(使用Cygwin)。

答案 1 :(得分:5)

下载hadoop-core-0.20.2.jar并将其放在nutcher的lib目录上解决了我的问题

(如果是Windows)如果仍未解决,请尝试使用此hadoop's patch

答案 2 :(得分:3)

设置以下vm参数

-Dhadoop.tmp.dir=<A directory location with write permission>

覆盖默认的/ tmp目录

同样使用hadoop-core-0.20.2.jar(http://mvnrepository.com/artifact/org.apache.hadoop/hadoop-core/0.20.2)将解决报告的问题。

答案 3 :(得分:-4)

我设法通过稍微更改hadoop-core jar文件来解决这个问题。在hadoop-core.jar文件中更改了FileUtil.java中的错误导致方法,并重新编译并包含在我的eclipse项目中。现在错误消失了。我建议你们每个人都这样做。