数据流运行器-尝试刷新以获取初始access_token

时间:2018-10-24 09:10:33

标签: google-bigquery google-cloud-dataflow apache-beam

我在管道中使用Read(BigQuerySource(query="...", use_standard_sql=True))从BigQuery加载数据。在Cloud Dataflow上,经过约3分钟的运行时间后,它将记录一次“尝试刷新”的INFO,每隔几秒钟会获取初始的access_token,直到作业结束。如何解决?enter image description here enter image description here

1 个答案:

答案 0 :(得分:1)

同一问题也影响GCS访问。 https://issues.apache.org/jira/browse/BEAM-2264

中对此进行了跟踪