我正在使用Hadoop-2.4.0
,而我的系统配置是24核,96 GB RAM。
我正在使用以下配置
mapreduce.map.cpu.vcores=1
yarn.nodemanager.resource.cpu-vcores=10
yarn.scheduler.minimum-allocation-vcores=1
yarn.scheduler.maximum-allocation-vcores=4
yarn.app.mapreduce.am.resource.cpu-vcores=1
yarn.nodemanager.resource.memory-mb=88064
mapreduce.map.memory.mb=3072
mapreduce.map.java.opts=-Xmx2048m
容量调度程序配置
queue.default.capacity=50
queue.default.maximum_capacity=100
yarn.scheduler.capacity.root.default.user-limit-factor=2
根据上述配置,我预计每个节点不会发出超过10个映射器,但它每个节点启动28个映射器。 我做错了吗?
答案 0 :(得分:32)
YARN运行的容器多于分配的核心,因为默认使用DefaultResourceCalculator。它只考虑记忆。
public int computeAvailableContainers(Resource available, Resource required) {
// Only consider memory
return available.getMemory() / required.getMemory();
}
使用DominantResourceCalculator,它使用cpu和内存。
在capacity-scheduler.xml中设置以下配置
yarn.scheduler.capacity.resource-calculator=org.apache.hadoop.yarn.util.resource.DominantResourceCalculator
的更多信息