Kubeflow管道可以并行运行GPU组件吗?

时间:2020-04-27 08:00:42

标签: python kubernetes kubeflow kubeflow-pipelines

我正在尝试构建一个kubeflow管道,在其中我并行运行两个组件(具有GPU约束)。看来这不是问题,但是每次尝试时,一个组件都会卡在“待处理”状态,直到另一个组件完成为止。

Example run

我正在测试的两个组件是带有GPU约束的简单while循环:

while_op1 = while_loop_op(image_name='tensorflow/tensorflow:1.15.2-py3')
while_op1.name = 'while-1-gpu'
while_op1.set_security_context(V1SecurityContext(privileged=True))
while_op1.apply(gcp.use_gcp_secret('user-gcp-sa'))
while_op1.add_pvolumes({pv_base_path: _volume_op.volume})
while_op1.add_node_selector_constraint('cloud.google.com/gke-accelerator', 'nvidia-tesla-p100')
while_op1.set_gpu_limit(1)
while_op1.after(init_op)

while_loop_op所在的位置:

import kfp.components as comp
def while_loop_op(image_name):
  def while_loop():
    import time
    max_count = 300
    count = 0
    while True:
      if count >= max_count:
        print('Done.')
        break
      time.sleep(10)
      count += 10
      print("{} seconds have passed...".format(count))
  op = comp.func_to_container_op(while_loop, base_image=image_name)
  return op()

1 个答案:

答案 0 :(得分:0)

该问题可能与您使用卷有关。您是否尝试过使用受支持的数据传递机制?

例如,使用以下管道:VIDEo

将与GPU相关的自定义设置应用于培训师:

some_task.add_node_selector_constraint('cloud.google.com/gke-accelerator', 'nvidia-tesla-p100')
some_task.set_gpu_limit(1)

将训练者和预测变量放在for _ in range(10):循环中,这样您就有10个并行副本。

检查培训员是否并行运行。

P.S。最好在官方仓库中创建问题:https://github.com/kubeflow/pipelines/blob/091316b8bf3790e14e2418843ff67a3072cfadc0/components/XGBoost/_samples/sample_pipeline.py