我有10台服务器(16G内存,8个内核),想要部署Hadoop和Spark,你能告诉我哪个计划可以最大限度地利用资源吗?
立即部署;
安装Openstack,将环境部署到虚拟机中;
使用Docker,例如Docker上的Spark;
我知道与使用场景相关的资源利用率,实际上我想知道上述三个计划的优缺点。
谢谢。
答案 0 :(得分:0)
为了获得最高的资源利用率,为Spark和Hadoop部署单个资源管理器将是最佳方法。有两种选择:
隔离Spark群集和Hadoop群集没有优势,并且会导致更高的开销和更低的资源利用率。