在hadoop中设置历史记录服务器时出错

时间:2016-01-25 14:32:22

标签: hadoop mapreduce yarn bigdata

所有数据节点都已启动并正在运行,但在hadoop中设置历史记录服务器(mapreduce2)时仍然会出现以下错误。

  

resource_management.core.exceptions.Fail:执行' curl -sS -L -w   '%{HTTP_CODE}' -X PUT -T /usr/hdp/2.3.4.0-3485/hadoop/mapreduce.tar.gz   ' http://ambari1.devcloud.247-inc.net:50070/webhdfs/v1/hdp/apps/2.3.4.0-3485/mapreduce/mapreduce.tar.gz?op=CREATE&user.name=hdfs&overwrite=True&permission=444''

     

返回status_code = 403。 {" RemoteException":{       "例外":" IOException",       " javaClassName":" java.io.IOException",       " message":"无法找到datanode,建议检查群集运行状况。"
   }

     

}

1 个答案:

答案 0 :(得分:0)

从名称节点,运行以下命令以确保数据节点正常运行并可从namenode访问

bin/hadoop dfsadmin -report

你可以看到像

这样的报告
-------------------------------------------------
Datanodes available: 1 (1 total, 0 dead)

Name: 127.0.0.1:50010
Decommission Status : Normal
Configured Capacity: 176945963008 (164.79 GB)
DFS Used: 2140192768 (1.99 GB)
Non DFS Used: 42513027072 (39.59 GB)
DFS Remaining: 132292743168(123.21 GB)
DFS Used%: 1.21%
DFS Remaining%: 74.76%
Last contact: Wed Jan 06 20:04:51 IST 2016

如果您看到0个数据节点,则配置必须是错误的

相关问题