标签: hadoop hdfs
在增加Hadoop中的块大小时,有没有人看到任何性能下降?我们正在建立一个集群,我们预计每天都会有大量的数据(100个GB),我们需要存储,所以我的想法是我们可以增加块大小。然而,有人担心是否会降低将要运行的MapReduce作业的速度。我能看到它发生的唯一方法是块的数量是否少于可以在集群上运行的任务的数量。
是否有人有关于此主题的任何其他信息?
答案 0 :(得分:2)
以下是需要考虑的几件事: