如何使用Spark数据框和partitionby子句将新数据附加到现有Hive表

时间:2018-05-10 12:46:36

标签: hive apache-spark-sql spark-dataframe

我有一个数据框,我正在使用partitionBy -

写入Hive表
val df = Seq(
("day1", 1),
("day1", 2),
("day1", 3),
("day1", 4)
).toDF("day","id")

df.write.partitionBy("day").format("parquet").saveAsTable("mydb.day_table")

spark.sql("select * from mydb.day_table").show
+---+----+
| id| day|
+---+----+
|  1|day1|
|  2|day1|
|  3|day1|
|  4|day1|
+---+----+

spark.sql("show create table mydb.day_table").show(false)
+---------------------------------------------------------------------------------------------------------------------------------------+
|createtab_stmt                                                                                                                         |
+---------------------------------------------------------------------------------------------------------------------------------------+
|CREATE TABLE `mydb`.`day_table` (`id` INT, `day` STRING)
USING parquet
OPTIONS (
  `serialization.format` '1'
)
PARTITIONED BY (day)
|
+---------------------------------------------------------------------------------------------------------------------------------------+

如果我创建另一个数据帧并希望通过保持分区不变来将此数据框的内容附加到同一个表中,那么如何 我这样做吗?这是正确的方法吗?

val df2 = Seq(
("day2",5),
("day2",6)
).toDF("day","id")


df2.write.mode("append").partitionBy("day").format("parquet").saveAsTable("mydb.day_table")

我想要低于输出但是我希望表格被day分区,即使我继续将数据附加到原始表格。

spark.sql("select * from mydb.day_table").show(false)
+---+----+
|id |day |
+---+----+
|1  |day1|
|2  |day1|
|3  |day1|
|4  |day1|
|5  |day2|
|6  |day2|
+---+----+

我正在使用Scala和Spark-Shell。感谢。

1 个答案:

答案 0 :(得分:0)

你必须使用spark数据框api的

<强> 1)partitionby

<强> 2)saveAsTable

df.\
write.\
format("parquet").\
mode(org.apache.spark.sql.SaveMode.Append).\
partitionBy("first").\
saveAsTable("example")

我知道这也是你在做的事情。但是你没有发布任何错误。