标签: performance file hadoop metadata mapr
嗨,MapR是否支持大量(4百万)个小文件(每个20KB)它能管理这些文件的元数据有多好?如果我想运行一个解析这些文件的mapreduce,我可以从5节点(每个节点:32GB RAM,8 Core)集群中获得什么样的性能。提高绩效的建议是什么?
答案 0 :(得分:1)
这个问题也在answers.mapr.com上被提出,并在那里得到了解答。请参阅http://answers.mapr.com/questions/6755/large-no-of-small-files.html