Google Bigquery:Spark - 不兼容的表分区规范

时间:2017-01-09 11:42:06

标签: apache-spark google-bigquery hadoop2

从临时表中提交复制作业时,我没有分配到每天有分区的最终表,我收到了

  

原因:java.io.IOException:ErrorMessage:不兼容的表   分区规范。预计分区规范   interval(type:day),但输入分区规范为none;

通过此here

查看此问题的其他人

我现在面临同样的问题,使用Spark saveAsNewAPIHadoopDataset使用连接器创建临时表,然后使用copy命令将数据加载到目标

修复Pavan上是否有eta?

0 个答案:

没有答案