来自Cloud Storage的BigQuery DTS失败

时间:2019-05-15 06:45:32

标签: google-bigquery google-cloud-storage

我有一个R脚本生成的csv,该脚本正在提取Search Console数据。该文件为UTF-8格式,已成功上传到云存储中。我可以将csv手动导入到BQ表中,但是数据传输失败。

csv文件如下所示:

"query","clicks","impressions","ctr","position","serp","positionRound","clickP"
"ltv in google analytics",1,1,1,1,"1",1,NA
"ga 360 training",1,1,1,7,"1",7,NA
"$-£ conversion",0,1,0,11,"1",11,0
"0845 converter",0,1,0,48,"5",48,0
"convers",0,2,0,52,"6",52,0
"conversion",0,2,0,97,"10",97,0
"conversion agency",0,2,0,91.5,"10",92,0
"conversion agency london",0,4,0,33.5,"4",34,0
"conversion company",0,2,0,84,"9",84,0

失败消息是:

Job bqts_5cdee1a8-0000-2b7c-88f4-f4030439e0f4 (table cwgsc) failed with error INVALID_ARGUMENT: Error while reading data, error message: CSV table encountered too many errors, giving up. Rows: 1; errors: 1. Please look into the errors[] collection for more details.; JobID: 61357964004:bqts_5cdee1a8-0000-2b7c-88f4-f4030439e0f4

我不确定在哪里可以找到errors[]集合。我正在使用Web UI而不是命令行来进行设置。我有一些将来想这样做的客户,他们不精通命令行,更喜欢使用Web UI。

任何帮助表示赞赏!

2 个答案:

答案 0 :(得分:2)

是的-完全正确。我刚刚解决了问题,然后回来发表我的解释。

是的,它是标题行。我这样更改了配置:

enter image description here

我在堆栈驱动程序中找到了这个。我这样看了BQ日志:

深入到日志的右侧部分,我找到了所需的线索:

enter image description here

现在很开心,它正在工作。

谢谢!

D

答案 1 :(得分:0)

似乎第一行的插入有问题。 这可能是由于标题行指定了列名:

如果您正在使用模式自动检测,则应该没问题。 但是,如果您指定架构,则BigQuery会将这些列名称视为实际值,而不是它们的实际列名称,这可能会导致类型错误。

一种解决方法是使用Schema Auto Detect或访问“高级”选项和skip the Header row

此外,您可以在“作业历史记录”部分并单击失败的作业,查看更详细的错误消息。