我目前正在评估Google Cloud Dataflow。根据{{3}},you may run up to 25 concurrent Dataflow jobs per Cloud Platform project.
。
这似乎很低。我可以看到运行100个中小型作业有很多价值,能够支持并行部署,测试和模块化管道(许多小型工作似乎更容易更新/升级,即使Dataflow有一些支持就地管道升级。)
可以通过某种方式增加此限制,例如可以在GCP上使用许多配额吗?解决此限制的常见做法是什么?
答案 0 :(得分:0)
是的,您可以要求增加项目的限制。您能否请写信给dataflow-feedback@google.com并提供您的项目ID?