标签: apache-spark mapreduce distributed-computing
我要提问-
是否有任何系统使用分布式处理的所有三个抽象模型,即树并行,数据并行和任务并行?
Hadoop / yarn是否根据问题类型使用所有模型?因为存在一些问题,在一个模型中可能没有效率,而在其他模型中却没有效率。