标签: apache-spark hadoop yarn capacity-planning
在我们的集群中,最小容器大小为8 GB 大多数配置单元查询使用1个容器。 (但肯定不能使用分配的所有内存) 一些火花作业仅使用2GB或4GB 根据观察,我们没有为所有查询使用太多内存。 仍然所有的容器都用光了。
所以,无论如何,我们可以有效地进行管理。
我们总共有30个vcore,总共275 GB内存 因为我们必须为每个容器分配1个vcore,所以每个瓶子要分配给30个容器
有没有一种方法可以有效利用所有8gb的容器? 或增加容器号或执行其他操作。 任何建议都会有帮助