我可以创造&运行GCP作业[使用PHP API]查询Google BigQuery数据集,并将结果集导出/保存为CSV文件到Google Cloud Storage GCS。
这很好用,但是当结果集很大时,将数据移动到GCS需要一段时间。
有没有办法获得进度或预计完成时间?
或者是否有任何方法可以找出到目前为止已成功将多少MB / GB的数据移动到GCS?
答案 0 :(得分:1)
无法检索有关传输的数据量或作业完成的估计时间的信息,但是使用BigQuery Client Library for PHP,您可以请求当前正在运行的jobs的ID。例如:
$bigQuery = new BigQueryClient([
'projectId' => $projectId,
]);
$jobs = $bigQuery->jobs([
'stateFilter' => 'running'
]);
foreach ($jobs as $job) {
echo $job->id() . PHP_EOL;
}
通过这种方式,您可以确保您的工作仍在进行中。