Hive && Spark。我需要在严格模式下从select sql覆盖分区表

时间:2018-08-03 02:19:35

标签: java apache-spark hive

我正在使用Spark && Hive做一些数据清理工作,我遇到了这个问题。 我的Hive表按datetime(dt)分区。这是创建表hiveql

MessageGroupId

我使用Spark和Hive从原始数据中获取一个临时表,该表具有以下列:dt,case_number和extra_info。 我的问题是如何使用临时表覆盖目标表?

0 个答案:

没有答案