标签: hadoop
iam在centos 7上使用hadoop apache 2.7.1
HA群集由2个名称节点和8个datanode组成 (两个名称节点也是日志节点+ 3个数据节点作为日志节点)
复制因子= 3且blocksize = 1mb
我插入的文件大小不超过1 mb
如果iam计划插入约10000000条记录
这些节点需要什么样的ram容量?
我已经阅读了一些链接,这些链接指的是数据节点应该比名称节点有更多的内存,因为map reduce,是真的吗?我们没有地图减少了什么idf