P100和K80之间的云ML引擎配额

时间:2019-01-31 19:02:59

标签: google-cloud-ml

Cloud ML-Engine Quota文档提到:

Total concurrent number of GPUs: This is the maximum number of GPUs in concurrent use, split per type as follows:

Concurrent number of Tesla K80 GPUs: 30.
Concurrent number of Tesla P100 GPUs: 30.

据此,只要它们在这两种GPU之间按30/30的比例分配,我就应该能够同时运行60个作业。

在实践中,开始执行30个P100作业后,我的K80作业被留在队列中并且没有被安排。 可以吗?

1 个答案:

答案 0 :(得分:0)

工作在1小时后自行开始。我确实确实同时运行了P100和K80作业,只是花了一段时间才开始K80作业。

相关问题