我使用Documentation在ubuntu16.04LTS中安装了Hadoop 2.6.5。当我运行数据节点时,我收到以下错误。
2018-06-10 12:53:17,866警告 org.apache.hadoop.hdfs.server.datanode.DataNode:无效 dfs.datanode.data.dir / usr / local / hadoop_strore / hdfs / datanode: java.io.FileNotFoundException:文件 file:/ usr / local / hadoop_strore / hdfs / datanode不存在
2018-06-10 12:53:17,880致命 org.apache.hadoop.hdfs.server.datanode.DataNode:异常 secureMain java.io.IOException:中的所有目录 dfs.datanode.data.dir无效: “/ usr / local / hadoop_strore / hdfs / datanode”at org.apache.hadoop.hdfs.server.datanode.DataNode.checkStorageLocations(DataNode.java:2354) 在 org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:2327) 在 org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:2219) 在 org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:2266) 在 org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:2442) 在 org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:2466) 2018-06-10 12:53:17,883 INFO org.apache.hadoop.util.ExitUtil:退出 状态1 2018-06-10 12:53:17,886 INFO org.apache.hadoop.hdfs.server.datanode.DataNode:SHUTDOWN_MSG:
有人可以让我知道它在内部做了什么。 我已经阅读了这些帖子,但没有正确的解释
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop_store/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop_store/hdfs/datanode</value>
</property>
</configuration>