YARN:Slave DataNode尽管看起来健康,却没有做好工作

时间:2015-08-21 10:45:20

标签: hadoop yarn

我在Ubuntu 12.04 LTS上安装了两个节点的Haoop 2.7.1。 sbin/start-dfs.sh && sbin/start-yarn.sh确认jps之后,所有恶魔都已启动并运行。

但是,只有主节点(它兼作从机)正在工作,而从节点的DataNode处于空闲状态。

奇怪的是,从属节点的tmp文件夹正由nm-local-dir填充(由我认为的ResourceManager创建)。

所有配置似乎都很好,我已经尝试了互联网可以建议的每一个技巧 - 但无济于事。

有什么想法吗?

1 个答案:

答案 0 :(得分:0)

删除主节点上的本地datanode / namenode文件夹,然后删除所有从属节点hdfs namenode -format 我认为问题是主服务器和从服务器之间的clusterID不一致。