GCP Dataflow vCPU使用和定价问题

时间:2018-10-23 08:37:03

标签: google-cloud-platform google-cloud-dataflow

我提交了一个GCP数据流管道,以从GCP发布/订阅中接收我的数据,解析并存储到GCP数据存储中。看来工作很完美。

经过21天,我发现费用为144.54美元,工作时间为2094.72小时。这意味着我提交后,即使没有从Pub / Sub接收(处理)任何数据,也会每秒钟收费一次。

这种行为正常吗?还是我设置了错误的参数? 我以为CPU使用时间仅在收到数据时计算。

在相同的工作模型中(从Pub / Sub接收并存储到Datastore),是否有任何方法可以降低成本?

1 个答案:

答案 0 :(得分:4)

Cloud Dataflow服务usage is billed以每秒为增量,基于每个作业。我猜您的工作使用了4名n1-standard-1工人,其中使用了4个vCPU,估计提供了2,000 vCPU hr resource usage。因此,此行为是正常的。为了降低成本,您可以使用autoscaling(用于指定最大数量的工作程序),或使用pipeline options(用于覆盖分配给每个工作程序的资源设置)。根据您的需要,您可以考虑使用Cloud Functions中的cost less,但考虑其limits

希望有帮助。