标签: google-cloud-dataflow apache-beam
实现标准流式ETL过程的最佳实践是什么?该过程将事实和一些较小的维度表写入BigQuery?
我试图了解如何处理以下事项:
答案 0 :(得分:1)
当侧输入在特定窗口上接收延迟数据时,它们将被重新计算。如果在此之后进行查找,那么您将能够在侧输入中看到该元素。
目前,Beam模型不包含重新触发消耗侧输入的ParDo的语义,因此您需要以某种方式确保在计算了侧输入后(重新)进行de lookup