试着在这里尝试编程模型。方案是我使用Pub / Sub + Dataflow来为网络论坛进行分析。我有来自Pub / Sub的数据流,如下所示:
ID | TS | EventType
1 | 1 | Create
1 | 2 | Comment
2 | 2 | Create
1 | 4 | Comment
我想最终得到一个来自Dataflow的流,如下所示:
ID | TS | num_comments
1 | 1 | 0
1 | 2 | 1
2 | 2 | 0
1 | 4 | 2
我希望执行此汇总的作业作为流进程运行,并在新事件进入时填充新计数。我的问题是,作业存储当前主题ID的状态的惯用位置在哪里和评论计数?假设主题可以存活多年。目前的想法是:
编辑:只是为了澄清,我不会在实施这三种策略中的任何一种方面遇到任何麻烦,或者百万种不同的其他方式,我对最好的方式更感兴趣使用Dataflow进行此操作的方式。什么是最有弹性的失败,必须重新处理回填历史等等。
EDIT2:数据流服务目前存在一个错误,如果在展平转换中添加输入,则更新失败,这意味着如果您更改了作业,则需要丢弃并重建作业中累积的任何状态包括在展平操作中添加内容的作业。
答案 0 :(得分:7)
您应该能够使用触发器和联合收割机来完成此任务。
PCollection<ID> comments = /* IDs from the source */;
PCollection<KV<ID, Long>> commentCounts = comments
// Produce speculative results by triggering as data comes in.
// Note that this won't trigger after *every* element, but it will
// trigger relatively quickly (as the system divides incoming data
// into work units). You could also throttle this with something
// like:
// AfterProcessingTime.pastFirstElementInPane()
// .plusDelayOf(Duration.standardMinutes(5))
// which will produce output every 5 minutes
.apply(Window.triggering(
Repeatedly.forever(AfterPane.elementCountAtLeast(1)))
.accumulatingFiredPanes())
// Count the occurrences of each ID
.apply(Count.perElement());
// Produce an output String -- in your use case you'd want to produce
// a row and write it to the appropriate source
commentCounts.apply(new DoFn<KV<ID, Long>, String>() {
public void processElement(ProcessContext c) {
KV<ID, Long> element = c.element();
// This includes details about the pane of the window being
// processed, and including a strictly increasing index of the
// number of panes that have been produced for the key.
PaneInfo pane = c.pane();
return element.key() + " | " + pane.getIndex() + " | " + element.value();
}
});
根据您的数据,您还可以从源读取整个注释,提取ID,然后使用Count.perKey()
获取每个ID的计数。如果您想要更复杂的组合,可以查看定义自定义CombineFn
并使用Combine.perKey
。
答案 1 :(得分:2)
由于BigQuery不支持覆盖行,因此一种方法是将事件写入BigQuery,并使用COUNT查询数据:
表GROUP BY ID中的SELECT ID,COUNT(num_comments);
在将条目写入BigQuery之前,您还可以在Dataflow中执行num_comments的每窗口聚合;上面的查询将继续有效。