服务器安装hdfs客户端失败

时间:2015-10-15 21:55:30

标签: hadoop hdfs hortonworks-data-platform ambari

我在Ambari上安装HDFS客户端时遇到以下错误。已重置服务器几次但仍无法解决问题。知道怎么解决这个问题吗?

stderr的:

public override void Open()
{
    ... lot of code omitted .....

Label_01F3:
    this.schemaProvider = new ISSchemaProvider(this);
    this.perfMonitor = new PerformanceMonitor(this);
    if ((Transaction.Current != null) == null)
    {
        goto Label_0230;
    }
    if (this.Settings.AutoEnlist == null)
    {
        goto Label_0230;
    }
    this.EnlistTransaction(Transaction.Current);
Label_0230:
    this.hasBeenOpen = 1;
    this.SetState(1, 1);
    return;
}

4 个答案:

答案 0 :(得分:1)

这是一个链接到 / etc / hadoop / conf 的软链接

我跑

python /usr/lib/python2.6/site-packages/ambari_agent/HostCleanup.py --silent --skip=users

运行后,它会删除/etc/hadoop/conf

但是,重新安装不会重新创建它。

因此您可能需要自己创建所有conf文件。 希望有人可以修补它。

答案 1 :(得分:1)

yum -y erase hdp-select

如果您多次完成安装,则可能无法清除某些软件包。

要删除所有HDP软件包并从全新安装开始,请擦除hdp-select。

如果这没有帮助,请删除/usr/hdp中的所有版本,如果它包含多个版本的hdp

,请删除此目录

删除所有已安装的软件包,例如hadoop,hdfs,zookeeper etc.

yum remove zookeeper* hadoop* hdp* zookeeper*

答案 2 :(得分:0)

我遇到了同样的问题:我在Centos 7上使用HDP 2.3.2。

第一个问题: 一些conf文件指向/ etc // conf目录(与它们应该的相同) 但是,/ etc // conf指向另一个conf目录,这导致无限循环。

我能够通过删除/ etc // conf符号链接和创建目录来解决这个问题

第二个问题 如果运行python脚本来清理安装并重新开始,则不会重新创建多个目录,例如hadoop-client目录。这会导致您的错误消息。此清理脚本也不能正常工作,因为它不会清理多个用户和目录。你必须使用userdel和groupdel。

更新: 这似乎是HDP 2.3.2的问题。在HDP 2.3.4中,我不再遇到这个问题了。

答案 3 :(得分:-1)

在失败的主机上创建/usr/hdp/current/hadoop-client/conf应该可以解决问题。