hortonworks:启动datanode失败

时间:2016-03-24 11:59:52

标签: hadoop

我使用ambari 2.2安装了新的群集HDP 2.3。问题是namenode服务无法启动,每次尝试时,都会出现以下错误。当我试图找到问题时,我发现另一个错误更明确(使用端口50070,我认为namenode使用此端口)。任何人之前已经解决了这个问题?感谢

  

resource_management.core.exceptions.Fail:执行' ambari-sudo.sh   su hdfs -l -s / bin / bash -c' ulimit -c unlimited;   /usr/hdp/current/hadoop-client/sbin/hadoop-daemon.sh --config   / usr / hdp / current / hadoop-client / conf start namenode''返回1。   启动namenode,登录到   /var/log/hadoop/hdfs/hadoop-hdfs-namenode-ip-10-8-23-175.eu-west-2.compute.internal.out

1 个答案:

答案 0 :(得分:0)

为了安装hortonworks群集,如果最初没有设置,ambari会尝试将核心文件大小限制设置为无限制。似乎安装集群的linux用户没有设置ulimits的权限。 只需将核心文件大小设置为无限制   /etc/security/limits.conf ,应该会出现。

*               soft    core            unlimited
*               hard    core            unlimited