当节点用完RAM时,Hue服务崩溃

时间:2017-10-13 03:41:26

标签: hadoop memory-management bigdata cloudera hue

我们有一个安装了Hue 3.9.0的4节点集群。 Namenode有24 GB的RAM,每个DataNode有20 GB。我们有几个工作正在消耗资源:

  • 15/24 GB(NameNode)
  • 14/20 GB(DataNode)
  • 13/20 GB(DataNode)
  • 6/20 GB(DataNode)

我们还在Impala和Hive中运行查询。这些查询一次又一次消耗所有可用的RAM(在NameNode上),每次都会导致Hue崩溃。当它发生时Cloudera Manager(CM)显示Hue健康状况不佳(进程状态:"错误:此角色的进程已退出。此角色应该启动。")而所有其他服务如HBase,HDFS,Impala,Hive等都有很好的健康。通过CM重启Hue服务后再次正常工作。我们如何防止Hue因缺少RAM而崩溃?

我认为我正在寻找的是为Hue服务保留足够RAM空间的手段(选项),但到目前为止我所能找到的是通过Hue配置选项卡设置的Impala配置选项(括号中的当前值):

  1. Impala守护程序内存限制(mem_limit):
    • Impala守护程序默认组(1701 MB)
    • Impala Daemon Group 1(2665 MB)
  2. 以字节为单位的Impala Llama ApplicationMaster的Java堆大小(2 GB)
  3. 但无论如何运行一系列查询(并行或一个接一个)最终会消耗所有可用的RAM。在查询完成后,似乎它不会释放RAM。我宁愿期望Impala和Hive说他们没有足够的内存来继续使用,也不会在这种情况下崩溃其他服务,比如Hue。

0 个答案:

没有答案