并行mymapreduce()实现的瓶颈(减速/阻塞操作)是什么?为什么?

时间:2016-10-19 12:46:38

标签: python multithreading hadoop mapreduce

我们正在学习Python中的mapreduce,我在测试中得到了这个问题。我在网上搜索了一个小时,但没有真正成功。 我不确定我是否正确使用它: 我的见解是,当我们启动一个池时,mapreduce分区大量的数据和瓶颈可能会减少所有数据。例如,(它也作为一个暗示:教授可以并行评估测试,但他不能计算GPA,直到他完成整个过程。

P.S。对不起,如果问题重复

0 个答案:

没有答案