管理群集和纱线利用率

时间:2019-03-19 16:22:37

标签: apache-spark hadoop yarn capacity-planning

在我们的集群中,最小容器大小为8 GB 大多数配置单元查询使用1个容器。 (但肯定不能使用分配的所有内存) 一些火花作业仅使用2GB或4GB 根据观察,我们没有为所有查询使用太多内存。 仍然所有的容器都用光了。

所以,无论如何,我们可以有效地进行管理。

我们总共有30个vcore,总共275 GB内存 因为我们必须为每个容器分配1个vcore,所以每个瓶子要分配给30个容器

有没有一种方法可以有效利用所有8gb的容器? 或增加容器号或执行其他操作。 任何建议都会有帮助

0 个答案:

没有答案