每个工人每小时激活总cpu和mem配置

时间:2017-06-07 08:44:52

标签: hadoop apache-spark pyspark yarn

我们正在使用hadoop-2.7.3spark-2.1.1-bin-hadoop2.7.tgz

我们希望在spark

的群集模式下运行yarn

我想安排不同的cpu / mem一天中的时间,以免它干扰日常活动。

after 8:00am use 2 cpus max (1 per job) 5 gb RAM max
after 17:00 use 8 cpus max and 16 gb max per job

0 个答案:

没有答案