在Hive 2.2.0上,我使用查询从另一个大小为1.34 GB的源表填充一个orc表
INSERT INTO TABLE TableOrc SELECT * FROM Table; ---- (1)
该查询创建了带有6个orc文件的TableORC表,这些文件远小于256MB的块大小。
-- FolderList1
-rwxr-xr-x user1 supergroup 65.01 MB 1/1/2016, 10:14:21 AM 1 256 MB 000000_0
-rwxr-xr-x user1 supergroup 67.48 MB 1/1/2016, 10:14:55 AM 1 256 MB 000001_0
-rwxr-xr-x user1 supergroup 66.3 MB 1/1/2016, 10:15:18 AM 1 256 MB 000002_0
-rwxr-xr-x user1 supergroup 63.83 MB 1/1/2016, 10:15:41 AM 1 256 MB 000003_0
-rwxr-xr-x user1 supergroup 69.11 MB 1/1/2016, 10:15:57 AM 1 256 MB 000004_0
-rwxr-xr-x user1 supergroup 23.83 MB 1/1/2016, 10:16:02 AM 1 256 MB 000005_0
为了可能删除它,下面的配置按照多个其他stackoverflow用户的建议使用,TableORC被截断,query(1)再次执行。
SET hive.merge.mapfiles=true;
SET hive.merge.mapredfiles=true;
SET hive.merge.size.per.task=128000000; -- (128MB)
SET hive.merge.smallfiles.avgsize=128000000; -- (128MB)
这次结果是一个TableOrc有3个ORC文件,LOGS显示3个额外的MR作业
-- FolderList2
-rwxr-xr-x user1 supergroup 132.49 MB 1/1/2016, 11:47:01 PM 1 256 MB 000000_0
-rwxr-xr-x user1 supergroup 130.12 MB 1/1/2016, 11:47:02 PM 1 256 MB 000001_0
-rwxr-xr-x user1 supergroup 92.93 MB 1/1/2016, 11:47:03 PM 1 256 MB 000002_0
我的问题是,当配置设置设置为使用128MB(https://cwiki.apache.org/confluence/display/Hive/Configuration+Properties)时,为什么ORC文件大小超过128MB
hive.merge.size.per.task
Default Value: 256000000
Added In: Hive 0.4.0
Size of merged files at the end of the job.
答案 0 :(得分:2)
您的初始平均文件大小小于certifi
,这就是合并任务开始合并它们的原因。
合并前两个文件65.01 MB + 67.48 MB = 132.49 MB这比'hive.merge.size.per.task'大,这就是为什么合并任务将停止将此结果文件与更多文件合并的原因。它不会被拆分为128M。它的工作方法非常简单。