我提交了一个GCP数据流管道,以从GCP发布/订阅中接收我的数据,解析并存储到GCP数据存储中。看来工作很完美。
经过21天,我发现费用为144.54美元,工作时间为2094.72小时。这意味着我提交后,即使没有从Pub / Sub接收(处理)任何数据,也会每秒钟收费一次。
这种行为正常吗?还是我设置了错误的参数? 我以为CPU使用时间仅在收到数据时计算。
在相同的工作模型中(从Pub / Sub接收并存储到Datastore),是否有任何方法可以降低成本?
答案 0 :(得分:4)
Cloud Dataflow服务usage is billed以每秒为增量,基于每个作业。我猜您的工作使用了4名n1-standard-1工人,其中使用了4个vCPU,估计提供了2,000 vCPU hr resource usage。因此,此行为是正常的。为了降低成本,您可以使用autoscaling(用于指定最大数量的工作程序),或使用pipeline options(用于覆盖分配给每个工作程序的资源设置)。根据您的需要,您可以考虑使用Cloud Functions中的cost less,但考虑其limits。
希望有帮助。