您好我在HBase支持的一个hive表中有200 GB的数据。 我必须在该表中创建142个不同的文件,目前只尝试3个文件。
我想运行所有查询以同时运行并行。 我正在尝试从hive表中插入多个文件但是获得解析异常。
这是我正在尝试的查询。
FROM hbase_table_FinancialLineItem
INSERT OVERWRITE LOCAL DIRECTORY '/hadoop/user/m6034690/FSDI/FinancialLineItem/Japan.txt'
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\t'
STORED AS TEXTFILE
select * from hbase_table_FinancialLineItem WHERE FilePartition='Japan'
INSERT OVERWRITE LOCAL DIRECTORY '/hadoop/user/m6034690/FSDI/FinancialLineItem/SelfSourcedPrivate.txt'
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\t'
STORED AS TEXTFILE
select * from hbase_table_FinancialLineItem WHERE FilePartition='SelfSourcedPrivate'
INSERT OVERWRITE LOCAL DIRECTORY '/hadoop/user/m6034690/FSDI/FinancialLineItem/ThirdPartyPrivate.txt'
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\t'
STORED AS TEXTFILE
select * from hbase_table_FinancialLineItem WHERE FilePartition='ThirdPartyPrivate';
在运行之后,我遇到了错误。
FAILED: ParseException line 7:9 missing EOF at 'from' near '*'
答案 0 :(得分:0)
我认为在每次插入覆盖结束时添加此FROM hbase_table_FinancialLineItem;
可以解决这个问题。