有问题设置Hadoop

时间:2011-03-11 21:42:43

标签: installation hadoop

我遇到的问题是,当我运行bin/hadoop fs -ls时,它会打印出我所在的本地目录的所有文件,而不是hdfs中的文件(目前应该是none)。以下是我设置一切的方法:

我已将所有0.20.2文件下载并解压缩到/home/micah/hadoop-install/。我使用以下设置编辑了conf/hdfs-site.xml并创建了相应的目录:

<configuration>
  <property>
    <name>fs.default.name</name>
    <value>localhost:9000</value>
  </property>
  <property>
    <name>dfs.data.dir</name>
    <value>/home/micah/hdfs/data</value>
  </property>
  <property>
    <name>dfs.name.dir</name>
    <value>/home/micah/hdfs/name</value>
  </property>
</configuration>

然后我运行了bin/hadoop namenode -format,然后是bin/start-dfs.sh

3 个答案:

答案 0 :(得分:4)

试试这个:

    #http://www.mail-archive.com/common-user@hadoop.apache.org/msg00407.html
    rm -r /tmp/hadoop****
    build $HADOOP_HOME
    echo export JAVA_HOME=$JAVA_HOME >> $HADOOP_HOME/conf/hadoop-env.sh
    echoThenRun "$HADOOP_HOME/bin/stop-all.sh"
    echoThenRun "$HADOOP_HOME/bin/hadoop namenode -format"

答案 1 :(得分:1)

我遇到了类似问题,发现我的HDFS数据目录权限错误。

从数据目录中删除chmod -R g-w的组写权限,解决了问题。

答案 2 :(得分:1)

谢谢,执行以下操作解决了我的问题

rm -r /tmp/hadoop****
    build $HADOOP_HOME
    echo export JAVA_HOME=$JAVA_HOME >> $HADOOP_HOME/conf/hadoop-env.sh
    echoThenRun "$HADOOP_HOME/bin/stop-all.sh"
    echoThenRun "$HADOOP_HOME/bin/hadoop namenode -format"