我们想在Spark
集群上测试一些Kubernetes
提交;
但是,official documentation有点模棱两可。
Spark可以在Kubernetes管理的集群上运行。此功能利用已添加到Spark的本地Kubernetes调度程序。
Kubernetes调度程序目前处于试验阶段。在将来的版本中,配置,容器映像和入口点可能会发生行为更改。
这是否意味着kubernetes
调度程序本身是实验性的,还是某种与spark相关的实现?
在生产级环境中在Kubernetes
上运行火花是否有意义?
答案 0 :(得分:1)
是的,如果您使用的是您提到的here之类的Spark Kubernetes调度程序,这是实验性的。使用它需要您自担风险。
并非如此,如果您正在Kubernetes中运行没有Kubernetes调度程序的独立群集。这意味着在Kubernetes容器中创建一个主机,然后分配许多与该主机通信的从机容器。然后使用旧的spark-summit
而不使用--master k8s://
命令并使用通常的--master spark://
命令来提交作业。基本上,这样做的弊端在于Kubernetes中的Spark集群是静态的。