我正在用hadoop进行概念验证,很可能会建立一个包含HDP和HDF Hortonwork组件的集群。
数据量确实很小,所以如果我没记错的话,每个节点的磁盘量可能不需要超过10 GB。
对于No OF CPU和主从节点的RAM,要考虑哪些标准?
答案 0 :(得分:0)
在您的情况下,看起来您可能正在跨多个节点执行MapReduce作业。 以我目前的知识,从节点可以在任何CPU配置和2/4 GB RAM下正常运行。对于主节点,您可以购买一台至少具有4核,单/双插槽CPU,8 GB RAM的计算机。