如何在机器故障的情况下恢复Spark Master,其中Spark Master正在运行

时间:2013-09-11 05:49:24

标签: mapreduce cluster-computing apache-spark

我在机器A上有一个Spark master,在另一台机器B和C上有两个Spark worker。 如果机器A因任何原因失败,那么Spark master就会死掉。

有没有办法自动恢复Spark Master或在另一台机器上创建新的Spark Master?

有人可以帮我解决这个问题吗?

提前致谢。

此致 AYUSH

1 个答案:

答案 0 :(得分:1)

使用ZooKeeper为recent pull request添加了对独立主容错的支持。该pull请求刚刚合并到master分支中,因此该功能应该包含在0.9.0版本中。与此同时,您可以通过构建Spark的开发版本来试用它。