我有一个R脚本生成的csv,该脚本正在提取Search Console数据。该文件为UTF-8格式,已成功上传到云存储中。我可以将csv手动导入到BQ表中,但是数据传输失败。
csv文件如下所示:
"query","clicks","impressions","ctr","position","serp","positionRound","clickP"
"ltv in google analytics",1,1,1,1,"1",1,NA
"ga 360 training",1,1,1,7,"1",7,NA
"$-£ conversion",0,1,0,11,"1",11,0
"0845 converter",0,1,0,48,"5",48,0
"convers",0,2,0,52,"6",52,0
"conversion",0,2,0,97,"10",97,0
"conversion agency",0,2,0,91.5,"10",92,0
"conversion agency london",0,4,0,33.5,"4",34,0
"conversion company",0,2,0,84,"9",84,0
失败消息是:
Job bqts_5cdee1a8-0000-2b7c-88f4-f4030439e0f4 (table cwgsc) failed with error INVALID_ARGUMENT: Error while reading data, error message: CSV table encountered too many errors, giving up. Rows: 1; errors: 1. Please look into the errors[] collection for more details.; JobID: 61357964004:bqts_5cdee1a8-0000-2b7c-88f4-f4030439e0f4
我不确定在哪里可以找到errors[]
集合。我正在使用Web UI而不是命令行来进行设置。我有一些将来想这样做的客户,他们不精通命令行,更喜欢使用Web UI。
任何帮助表示赞赏!
答案 0 :(得分:2)
是的-完全正确。我刚刚解决了问题,然后回来发表我的解释。
是的,它是标题行。我这样更改了配置:
我在堆栈驱动程序中找到了这个。我这样看了BQ日志:
深入到日志的右侧部分,我找到了所需的线索:
现在很开心,它正在工作。
谢谢!
D
答案 1 :(得分:0)
似乎第一行的插入有问题。 这可能是由于标题行指定了列名:
如果您正在使用模式自动检测,则应该没问题。 但是,如果您指定架构,则BigQuery会将这些列名称视为实际值,而不是它们的实际列名称,这可能会导致类型错误。
一种解决方法是使用Schema Auto Detect或访问“高级”选项和skip the Header row。
此外,您可以在“作业历史记录”部分并单击失败的作业,查看更详细的错误消息。