Thinbug
News
为什么在单个任务的粒度上进行mapreduce恢复很昂贵
时间:2019-07-04 09:52:22
标签:
hadoop
在“设计数据密集型应用程序-批处理”一书中,我读过“即使单个任务的粒度恢复也会导致开销增加,从而使无故障处理变慢”。重试失败的任务似乎是合理的。
0 个答案:
没有答案
相关问题
为什么创建appdomain如此昂贵?
为什么减少率为16%?
Mapper或Reducer Task中的未处理异常会使任务失败吗?
Hadoop减少任务停留在0%
地图任务停留在50%
为什么mapreduce中的group by operations被认为是昂贵的?
在Spark中计算RDD昂贵任务中的记录?
为什么上下文切换是一个昂贵的过程而且费用昂贵?
Mapreduce任务无止境
为什么在单个任务的粒度上进行mapreduce恢复很昂贵
最新问题
我写了这段代码,但我无法理解我的错误
我无法从一个代码实例的列表中删除 None 值,但我可以在另一个实例中。为什么它适用于一个细分市场而不适用于另一个细分市场?
是否有可能使 loadstring 不可能等于打印?卢阿
java中的random.expovariate()
Appscript 通过会议在 Google 日历中发送电子邮件和创建活动
为什么我的 Onclick 箭头功能在 React 中不起作用?
在此代码中是否有使用“this”的替代方法?
在 SQL Server 和 PostgreSQL 上查询,我如何从第一个表获得第二个表的可视化
每千个数字得到
更新了城市边界 KML 文件的来源?