Hive Table添加分区以加载所有子目录

时间:2012-06-12 12:48:18

标签: hadoop hive amazon-emr emr

我正在使用配置单元(使用外部表)来处理存储在amazon S3上的数据。

我的数据分区如下: group/team/dt/(例如,数据文件可以存储在路径group=myGroup/team=myTeam/dt=20120603

我想处理几个团队(不同组)的数据。 由于RCOVER PARTITIONS需要很长时间,因此我想基于组和团队值将多个分区添加到配置单元表(即,给定该团队中所有可用日期的组和团队负载数据)。

我正在寻找的功能是:

CREATE EXTERNAL TABLE myData(
attr1 string, attr2 string, attr3 string)
PARTITIONED BY (group string, team string, dt string )
ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
LOCATION 's3://myBucket/${DATA_ROOT_DIR}'; 

-- Add paritions without specifying values for dt
ALTER TABLE myData ADD PARTITION (group='group1',team='team1') ; 
ALTER TABLE myData ADD PARTITION (group='group2',team='team2') ;

谢谢!

2 个答案:

答案 0 :(得分:5)

Hive在你告诉它们之前不知道这些目录,因此没有添加它们就无法访问这些目录。

您可以编写一个简单的脚本来添加给定团队/组的所有分区:

results = "ALTER TABLE something ADD "
groups.each do |group|
  teams.each do |team|
    partitions = listDirectories("s3n://bucket/", group, team)
    partitions.each do |partition|
      results += "PARTITION(group='#{group}', team='#{team}', dt='#{partition}')"
    end

  end
end

puts results

看起来你正在运行EMR(常规配置单元甚至没有RECOVER PARTITIONS),这几乎就是RECOVER PARTITIONS的功能,但这样你至少可以获得更多的控制权。

另一个选项是在添加数据时添加分区,并确保所有分区都保持最新。

答案 1 :(得分:0)

请检查动态分区插入 - https://cwiki.apache.org/confluence/display/Hive/Tutorial#Tutorial-DynamicpartitionInsert

在此方法中,列本身成为分区。这有效地避免了在insert语句中对分区名称进行硬编码。