我有一个带有3个代理节点的DCOS集群;我在DCOS上运行spark等服务很少。
- 如果我扩展我的DCOS群集,我是否也需要扩展我的火花 (因为如果我将第四个节点添加到DCOS群集并且当我运行火花时 job,master可以为要运行的spark作业分配资源 未安装spark的第4个节点因此会失败)?
醇>
在我的观察中,我发现这些作业正被提交给Mesos大师看到的任何节点。
- 有没有办法可以指定Spark作业不在某些节点上运行?
醇>
答案 0 :(得分:1)
动态分配可能会有所帮助,但我还没有使用它:
http://spark.apache.org/docs/latest/running-on-mesos.html#dynamic-resource-allocation-with-mesos
http://spark.apache.org/docs/latest/job-scheduling.html#dynamic-resource-allocation
要安装DC / OS Spark软件包的多个实例,请设置每个实例 service.name为JSON中的唯一名称(例如:“spark-dev”) 安装期间的配置文件:
$ dcos config set spark.app_id <service.name>
使用DC / OS Spark CLI中的特定Spark实例:
msiexec /i MyInstaller.msi TRANSFORMS=:I01 REINSTALL=ALL REINSTALLMODE=omus
https://docs.mesosphere.com/1.8/usage/service-guides/spark/install/