我遇到这个消息,我不清楚我超过了多少配额中的哪一个。我的流程有:
给我这是:
我看着bq --project <proj name> ls -j -a
的输出。这给了我工作和成功/失败。从这里开始,我使用bq --project <proj name> show -j <jobId>
错误输出包含以下行:
"status": {
"errorResult": {
"location": "load_job",
"message": "Quota exceeded: Your project exceeded quota for imports per project. For more information, see https://cloud.google.com/bigquery/troubleshooting-errors",
"reason": "quotaExceeded"
},
"errors": [
{
"location": "load_job",
"message": "Quota exceeded: Your project exceeded quota for imports per project. For more information, see https://cloud.google.com/bigquery/troubleshooting-errors",
"reason": "quotaExceeded"
}
],
建议在哪里看?我做错了吗?也许是组织线程/数据的更好方法?
答案 0 :(得分:2)
看起来像Load Quotas相关
行和单元格大小限制:
Data format Max limit
CSV 2 MB (row and cell size)
JSON 2 MB (row size)
Avro 16 MB (block size)
每个加载作业的最大大小:CSV和JSON的所有输入文件均为12 TB
最有可能Daily limit
是您正在寻找的
答案 1 :(得分:0)
你是如何加载数据的?您似乎使用jobs.insert
而不是tabledata.insertAll
。
jobs.insert
以批处理模式加载数据。正如米哈伊尔所说,如果你使用的是jobs.insert
方法,那么每张桌子的进口限制是1000 - 大概是每90秒一次。
tabledata.insertAll
允许您将数据流式传输到表中,这里是每个表限制每秒100k行的应用位置。请注意,此方法具有相关成本,而批处理方法则是免费的。