所有数据节点都已启动并正在运行,但在hadoop中设置历史记录服务器(mapreduce2)时仍然会出现以下错误。
resource_management.core.exceptions.Fail:执行' curl -sS -L -w '%{HTTP_CODE}' -X PUT -T /usr/hdp/2.3.4.0-3485/hadoop/mapreduce.tar.gz ' http://ambari1.devcloud.247-inc.net:50070/webhdfs/v1/hdp/apps/2.3.4.0-3485/mapreduce/mapreduce.tar.gz?op=CREATE&user.name=hdfs&overwrite=True&permission=444''
返回status_code = 403。 {" RemoteException":{ "例外":" IOException", " javaClassName":" java.io.IOException", " message":"无法找到datanode,建议检查群集运行状况。"
}}
答案 0 :(得分:0)
从名称节点,运行以下命令以确保数据节点正常运行并可从namenode访问
bin/hadoop dfsadmin -report
你可以看到像
这样的报告-------------------------------------------------
Datanodes available: 1 (1 total, 0 dead)
Name: 127.0.0.1:50010
Decommission Status : Normal
Configured Capacity: 176945963008 (164.79 GB)
DFS Used: 2140192768 (1.99 GB)
Non DFS Used: 42513027072 (39.59 GB)
DFS Remaining: 132292743168(123.21 GB)
DFS Used%: 1.21%
DFS Remaining%: 74.76%
Last contact: Wed Jan 06 20:04:51 IST 2016
如果您看到0个数据节点,则配置必须是错误的