无法更改或删除大型Imapa分区表 - CAUSED BY:MetaException:执行

时间:2017-10-02 10:04:08

标签: hadoop hive hadoop2 impala metastore

我有几个 impala分区表,它们的分区超过50k,除了Hive Metastore操作外,它还运行良好,例如DROPALTER ... { {1}},我遇到此错误消息:

  

查询: drop table cars

     

错误: ImpalaRuntimeException:将'dropTable'RPC生成到Hive Metastore时出错:       CAUSED BY:MetaException:执行方法时超时:drop_table_with_environment_context; 600003ms超过600000ms

我不知道这是否是内存问题?或者它是正常的,我应该调整超时值..?如果是的话,哪一个?

任何帮助都将不胜感激。

3 个答案:

答案 0 :(得分:2)

尝试添加CASCADE。如果你的桌子有分区, 查询应该是

DROP TABLE CARS CASCADE;

答案 1 :(得分:1)

这可能与蜂房Metastore有关。您可以尝试直接连接到hms并查看是否在此处删除分区,并且您将获得有关其无法工作的更多信息。

答案 2 :(得分:-1)

可能是由于权限问题。 由于表是由Impala用户创建的,当您从Hive执行Drop命令时,Hive用户可能不在同一组Impala中用于删除底层HDFS文件夹。