标签: google-bigquery google-cloud-dataflow apache-beam
我在管道中使用Read(BigQuerySource(query="...", use_standard_sql=True))从BigQuery加载数据。在Cloud Dataflow上,经过约3分钟的运行时间后,它将记录一次“尝试刷新”的INFO,每隔几秒钟会获取初始的access_token,直到作业结束。如何解决?
Read(BigQuerySource(query="...", use_standard_sql=True))
答案 0 :(得分:1)
同一问题也影响GCS访问。 https://issues.apache.org/jira/browse/BEAM-2264