是否有一种方法可以微调Hadoop配置参数,而不必为每种可能的组合运行测试? 我目前正在研究8节点集群,我想优化map reduce任务的性能以及spark性能(在hdfs之上运行)。
答案 0 :(得分:1)
简短的回答是“否”。您需要进行测试并运行冒烟测试,以确定集群的最佳性能。因此,我将首先查看这些
链接:
讨论了一些将影响MapReduce作业的主题:
让您了解如何在YARN / TEZ中为每个节点群集设置4节点32核心128GB RAM :(来自Hadoop multinode cluster too slow. How do I increase speed of data processing?)
对于Tez:划分RAM / CORES =最大TEZ容器大小 因此,就我而言: 128/32 = 4GB
纱:
我喜欢运行最大RAM,我可以使用YARN在每个节点上备用,我的内存比建议的要高一些,但是建议的值会导致TEZ / MR作业崩溃,因此76GB在我的情况下效果更好。您需要使用所有这些值!