标签: apache-spark google-bigquery hadoop2
从临时表中提交复制作业时,我没有分配到每天有分区的最终表,我收到了
原因:java.io.IOException:ErrorMessage:不兼容的表 分区规范。预计分区规范 interval(type:day),但输入分区规范为none;
通过此here
我现在面临同样的问题,使用Spark saveAsNewAPIHadoopDataset使用连接器创建临时表,然后使用copy命令将数据加载到目标
saveAsNewAPIHadoopDataset
修复Pavan上是否有eta?