我注意到mapreduce.map.speculative
和mapreduce.reduce.speculative
默认设置为true
(在mapred-default.xml
配置文件中)
但是,spark.speculation
的默认值为false
(在spark-defaults.conf
配置文件中)
这些设置之间是否存在干扰?
我相信它们是不同的,第一个适用于使用Hadoop map-reduce引擎,第二个适用于我们使用Spark的情况。当我们在纱线上使用Spark时是否一样?