我使用带有3个数据节点的apache ambari 2.1.0创建了hadoop集群。 现在,当我尝试将另一个数据节点添加到(现有集群)时,它会抛出错误
resource_management.core.exceptions.Fail:执行'/ usr / bin / yum -d 0 -e 0 -y install'hedoop_2_3_ *''返回1.没有可用于基础的Presto元数据
Delta RPM将3.6 M的更新减少到798 k(节省78%)
这是我的Web UI控制台日志:
追踪(最近一次呼叫最后一次):
文件“/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/datanode.py”,第153行,in 数据管理部()。执行()
文件“/usr/lib/python2.6/site-packages/resource_management/libraries/script/script.py”,第218行,执行 方法(ENV)
文件“/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/datanode.py”,第34行,安装中 self.install_packages(env,params.exclude_packages)
文件“/usr/lib/python2.6/site-packages/resource_management/libraries/script/script.py”,第376行,在install_packages中 包(名称)
文件“/usr/lib/python2.6/site-packages/resource_management/core/base.py”,第157行, init self.env.run()
文件“/usr/lib/python2.6/site-packages/resource_management/core/environment.py”,第152行,在运行中 self.run_action(资源,行动)
文件“/usr/lib/python2.6/site-packages/resource_management/core/environment.py”,第118行,在run_action中 provider_action()
文件“/usr/lib/python2.6/site-packages/resource_management/core/providers/package/init.py”,第45行,在action_install中 self.install_package(package_name,self.resource.use_repos,self.resource.skip_repos)
文件“/usr/lib/python2.6/site-packages/resource_management/core/providers/package/yumrpm.py”,第49行,在install_package中 shell.checked_call(cmd,sudo = True,logoutput = self.get_logoutput())
文件“/usr/lib/python2.6/site-packages/resource_management/core/shell.py”,第70行,内部 result = function(command,** kwargs)
文件“/usr/lib/python2.6/site-packages/resource_management/core/shell.py”,第92行,在checked_call中 tries = tries,try_sleep = try_sleep)
文件“/usr/lib/python2.6/site-packages/resource_management/core/shell.py”,第140行,在_call_wrapper中 result = _call(command,** kwargs_copy)
文件“/usr/lib/python2.6/site-packages/resource_management/core/shell.py”,第291行,在_call 提高失败(err_msg)
resource_management.core.exceptions.Fail:执行'/ usr / bin / yum -d 0 -e 0 -y install'hedoop_2_3_ *''返回1.没有可用于基本Delta RPM的Presto元数据将3.6 M的更新减少到798 k(78%) 保存)
下载包时出错:
hadoop_2_3_4_0_3485纱,访问代理服务器,2.7.1.2.3.4.0-3485.el6.x86_64: [Errno 256]不再需要镜子了。
答案 0 :(得分:0)
看起来yum和您的存储库存在两个问题。
首先,我看到了消息:
没有可用于基本Delta RPM的Presto元数据减少了3.6 M 更新为798 k(已保存78%)
尝试在您尝试添加为datanode的主机上运行以下命令来修复第一个问题:
sudo yum clean all
然后看看您是否可以成功执行此命令:
sudo yum -v install hadoop_2_3_*
如果出现提示,询问您是否要安装(y / n)然后成功,请选择no选项,然后从Ambari重试添加datanode操作。如果出现错误或出现故障,请查看详细输出以进一步解决问题。