我正在尝试从Hive表创建一个snappy.parquet文件。它是一个很大的分区表只需要它的一小部分。这样做:
set parquet.compression=SNAPPY;
set hive.exec.compress.output=true;
set hive.exec.compress.intermediate=true;
set hive.exec.parallel=true;
set mapred.output.compress=true;
set mapreduce.output.fileoutputformat.compress=true;
set mapred.compress.map.output=true;
set mapreduce.map.output.compress=true;
set mapred.output.compression.type=BLOCK;
set mapreduce.output.fileoutputformat.compress.type=BLOCK;
set io.seqfile.compression.type = BLOCK;
insert overwrite directory 'EXTERNAL_DIRECTORY' STORED AS PARQUET select * from SOURCE_TABLE;
它使用以下架构创建000000_0文件:
message hive_schema {
optional int32 _col0;
optional binary _col1 (UTF8);
optional binary _col2 (UTF8);
optional binary _col3 (UTF8);
optional binary _col4 (UTF8);
optional binary _col5 (UTF8);
optional binary _col6 (UTF8);
optional binary _col7 (UTF8);
optional int64 _col8;
optional int64 _col9;
optional int64 _col10;
)
从SOURCE_TABLE中删除所有列名。我如何正确保存它以便以后可以将它用作蜂巢表?
答案 0 :(得分:0)
我会通过从您之后的源分区中选择所有数据来为您的数据集创建一个新的外部表。然后你会有一个可以使用的表和文件。您现在不能使用外部表作为select语句创建create table,因此您需要先创建表,然后将数据加载到其中。
create external table yourNewTable ( use your source table DDL...)
stored as parquet location '/yourNewLocation';
insert into yourNewTable
select * from yourSourceTable where yourPartitionedFieldNames = 'desiredPartitionName';