YARN不会抢占spark 2.0任务

时间:2016-09-01 14:58:44

标签: hadoop yarn apache-spark-2.0

我有一个由YARN管理的集群。我在yarn-site.xmlfair-scheduler.xml中启用了公平计划(详见下文)。

根据Cloudera's blog ariticle on fair scheduling我希望如果我将某些任务安排到q1队列(在运行中创建,使用默认值,例如。weigth=1),然后将其他一些任务安排到{ {1}} test_queue),来自weight=2的任务将被抢占(1秒后)以平衡q1公平分享,但它不会发生。

相反,test_queue使用70%的群集资源,公平共享为33%)而q1获得5%的资源公平共享 67%。

我错过了什么吗?

enter image description here

以下是我的YARN配置:

test_queue

<!-- yarn-site.xml -->
<property>
  <name>yarn.resourcemanager.scheduler.class</name>
  <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
</property>
<property>
  <name>yarn.scheduler.fair.preemption</name>
  <value>true</value>
</property>

我从火花示例提交Pi计算作业:

<!-- fair-scheduler.xml -->
<allocations>
    <queue name="test_queue">
        <weight>2.0</weight>
        <schedulingPolicy>fair</schedulingPolicy>
        <fairSharePreemptionTimeout>1</fairSharePreemptionTimeout>
        <fairSharePreemptionThreshold>1</fairSharePreemptionThreshold>
    </queue>

    <defaultFairSharePreemptionTimeout>1</defaultFairSharePreemptionTimeout>
    <defaultFairSharePreemptionThreshold>1</defaultFairSharePreemptionThreshold>

    <queuePlacementPolicy>
        <rule name="specified"/>
        <rule name="default" queue="test_queue"/>
    </queuePlacementPolicy>
</allocations>

0 个答案:

没有答案