我在Ambari上安装HDFS客户端时遇到以下错误。已重置服务器几次但仍无法解决问题。知道怎么解决这个问题吗?
stderr的:
public override void Open()
{
... lot of code omitted .....
Label_01F3:
this.schemaProvider = new ISSchemaProvider(this);
this.perfMonitor = new PerformanceMonitor(this);
if ((Transaction.Current != null) == null)
{
goto Label_0230;
}
if (this.Settings.AutoEnlist == null)
{
goto Label_0230;
}
this.EnlistTransaction(Transaction.Current);
Label_0230:
this.hasBeenOpen = 1;
this.SetState(1, 1);
return;
}
答案 0 :(得分:1)
这是一个链接到 / etc / hadoop / conf 的软链接
我跑
python /usr/lib/python2.6/site-packages/ambari_agent/HostCleanup.py --silent --skip=users
运行后,它会删除/etc/hadoop/conf
但是,重新安装不会重新创建它。
因此您可能需要自己创建所有conf文件。 希望有人可以修补它。
答案 1 :(得分:1)
yum -y erase hdp-select
如果您多次完成安装,则可能无法清除某些软件包。
要删除所有HDP软件包并从全新安装开始,请擦除hdp-select。
如果这没有帮助,请删除/usr/hdp
中的所有版本,如果它包含多个版本的hdp
删除所有已安装的软件包,例如hadoop,hdfs,zookeeper etc.
yum remove zookeeper* hadoop* hdp* zookeeper*
答案 2 :(得分:0)
我遇到了同样的问题:我在Centos 7上使用HDP 2.3.2。
第一个问题: 一些conf文件指向/ etc // conf目录(与它们应该的相同) 但是,/ etc // conf指向另一个conf目录,这导致无限循环。
我能够通过删除/ etc // conf符号链接和创建目录来解决这个问题
第二个问题 如果运行python脚本来清理安装并重新开始,则不会重新创建多个目录,例如hadoop-client目录。这会导致您的错误消息。此清理脚本也不能正常工作,因为它不会清理多个用户和目录。你必须使用userdel和groupdel。
更新: 这似乎是HDP 2.3.2的问题。在HDP 2.3.4中,我不再遇到这个问题了。
答案 3 :(得分:-1)
在失败的主机上创建/usr/hdp/current/hadoop-client/conf
应该可以解决问题。