在Dataflow管道执行期间是否可以使用“自定义源和接收器”来编写/附加文件?

时间:2018-02-15 14:22:22

标签: google-cloud-storage google-cloud-dataflow

我的程序依赖本地系统存储来编写程序本身生成的文件。因此,在“DirectPipelineRunner”模式下执行作业。以下是流程,

  1. 我的一个功能 - 发出多个REST API请求并创建/附加到本地系统存储中的文件(Output.txt)。
  2. 管道 a)将生成的文件上传到GCS 2)从GCS读取文件 c)执行转换 d)写入BigQuery。
  3. 由于我的程序将API响应写入/附加到本地系统存储,我正在 DirectPipelineRunner 模式下执行管道。

    是否可以在云中使用临时空间来删除​​对本地文件系统的依赖性以便我可以在 DataflowPipelineRunner 模式下执行pipleline?

    我猜Custom Sources and Sinks可以在这里使用。有人可以为这个问题陈述添加一些亮点吗?

0 个答案:

没有答案