每次我重新启动我的PC名称节点都没有启动

时间:2015-12-01 08:29:03

标签: java hadoop hdfs vmware

我正在使用VMware在Ubuntu上运行我的hadoop。 hadoop的版本是2.x,当我重新启动电脑时我遇到了问题。每次我重新启动电脑时都要格式化namenode,否则会出现如下错误。

  

错误:从ubuntu / 127.0.1.1调用localhost:9000在连接异常时失败:java.net.ConnectException:连接被拒绝。

HDFS-site.xml中

<configuration>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/tmp/hadoopTemp</value>
        </property>
</configuration>

芯-site.xml中

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

如果有任何建议,请告诉我。

谢谢, 西

1 个答案:

答案 0 :(得分:1)

重启机器后必须启动名称节点。您可以通过将namenode start命令添加到机器启动命令来实现。 有关详细信息,请参阅此文章https://unix.stackexchange.com/questions/35303/run-a-sh-file-on-machine-boot-up