我遇到的问题是,当我运行bin/hadoop fs -ls
时,它会打印出我所在的本地目录的所有文件,而不是hdfs中的文件(目前应该是none)。以下是我设置一切的方法:
我已将所有0.20.2文件下载并解压缩到/home/micah/hadoop-install/
。我使用以下设置编辑了conf/hdfs-site.xml
并创建了相应的目录:
<configuration>
<property>
<name>fs.default.name</name>
<value>localhost:9000</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/micah/hdfs/data</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/micah/hdfs/name</value>
</property>
</configuration>
然后我运行了bin/hadoop namenode -format
,然后是bin/start-dfs.sh
。
答案 0 :(得分:4)
试试这个:
#http://www.mail-archive.com/common-user@hadoop.apache.org/msg00407.html
rm -r /tmp/hadoop****
build $HADOOP_HOME
echo export JAVA_HOME=$JAVA_HOME >> $HADOOP_HOME/conf/hadoop-env.sh
echoThenRun "$HADOOP_HOME/bin/stop-all.sh"
echoThenRun "$HADOOP_HOME/bin/hadoop namenode -format"
答案 1 :(得分:1)
我遇到了类似问题,发现我的HDFS
数据目录权限错误。
从数据目录中删除chmod -R g-w
的组写权限,解决了问题。
答案 2 :(得分:1)
谢谢,执行以下操作解决了我的问题
rm -r /tmp/hadoop****
build $HADOOP_HOME
echo export JAVA_HOME=$JAVA_HOME >> $HADOOP_HOME/conf/hadoop-env.sh
echoThenRun "$HADOOP_HOME/bin/stop-all.sh"
echoThenRun "$HADOOP_HOME/bin/hadoop namenode -format"