我需要将记录流插入到Hive分区表中。表结构类似于
CREATE TABLE store_transation (
item_name string,
item_count int,
bill_number int,
) PARTITIONED BY (
yyyy_mm_dd string
);
我想了解Hive如何处理内部表中的插入。
是否将所有记录插入到内部的单个文件中 yyyy_mm_dd = 2018_08_31 目录?还是配置单元在一个分区内拆分为多个文件?
如果每天有1百万条记录,并且查询模式介于日期范围之间,那么哪个在以下方面表现良好?
答案 0 :(得分:3)
在所有情况下,Insert都会执行相同的操作,因为insert不会查询您现有的数据(除非您使用自身的select进行插入),并且通常每个容器都会创建自己的文件,除非配置了文件合并。
如果按日期对表进行分区,则使用日期范围查询数据会更好。文件过多可能会导致性能下降,因此您可能希望在插入过程中合并文件。什么是太多文件?每天每天有数百甚至数千个分区。每个分区只有很少的文件不会导致性能问题,您不需要合并它们。
Insert语句将在partitions目录中创建其他文件,并且通常不会与现有文件合并。将创建多少个文件取决于insert语句和配置设置。
正在运行的最终映射器或化简器的数量+配置设置将确定输出文件的数量。您可以通过添加“ order by”子句来强制其在单个化简器上运行。在这种情况下,将为每个分区创建一个额外的文件,但是它将运行缓慢。
也可以使用distribute by partition key
来减少创建的文件数量,但这将触发额外的reducer阶段,并且比仅map任务运行得更慢。
还可以使用以下设置将新文件与现有文件合并:
SET hive.merge.mapfiles=true;
SET hive.merge.mapredfiles=true;
SET hive.merge.size.per.task=128000000; -- (128MB)
SET hive.merge.smallfiles.avgsize=128000000; -- (128MB)
这些配置设置可能最终会触发合并任务(取决于上述设置中配置的大小),它将合并现有文件以及通过插入新添加的文件。
有关合并的更多详细信息,请参见以下答案:https://stackoverflow.com/a/45266244/2700344
实际上,在这种情况下,表的类型(托管表或外部表)无关紧要。插入或选择将起作用。
如果您已经具有与目标表相同格式的文件,那么最快的方法是将其放置在分区目录中,而完全不使用DML查询。
对于ORC文件,您可以使用以下命令有效地合并文件:ALTER TABLE T [PARTITION partition_spec] CONCATENATE;