Hive Metastore无法在Ambari中重新启动

时间:2018-11-14 13:05:53

标签: python apache-spark hadoop hive hdfs

我遇到了Hive Metastore无法在我的名称节点上重新启动的情况。它似乎与空间问题有关,因为日志指出空间不足情况。我在Ambari的stderr日志中看到了这一点。

此外,标准输出还说到hive-site.xml文件不匹配,我不确定这是一个单独的问题还是空间问题的结果。

在我的df命令中看到,/ dev / sda2为100%,其余目录都正常。

[kk2465@zlx73416 ~]$ df -h
Filesystem                     Size  Used Avail Use% Mounted on
/dev/sda2                       20G   20G   20K 100% /

我已经包括了Ambari中生成的stderr和stdout日志的相关部分。

stderr:   /var/lib/ambari-agent/data/errors-821.txt 

    sudo.create_file(path, content, encoding=self.resource.encoding)
  File "/usr/lib/ambari-agent/lib/resource_management/core/sudo.py", line 142, in create_file
    fp.write(content)
IOError: [Errno 28] No space left on device



stdout:   /var/lib/ambari-agent/data/output-821.txt

2018-11-13 14:18:43,496 - Generating config: /usr/hdp/current/hive-client/conf/hive-site.xml
2018-11-13 14:18:43,497 - File['/usr/hdp/current/hive-client/conf/hive-site.xml'] {'owner': 'hive', 'content': InlineTemplate(...), 'group': 'hadoop', 'mode': 0644, 'encoding': 'UTF-8'}
2018-11-13 14:18:43,676 - Writing File['/usr/hdp/current/hive-client/conf/hive-site.xml'] because contents don't match

Command failed after 1 tries

0 个答案:

没有答案