猪脚本在Tez上抛出了内存异常,但与MapReduce一起使用

时间:2015-11-15 09:00:51

标签: hadoop apache-pig hcatalog apache-tez

下面显示的Pig(带有Tez执行引擎)脚本抛出Out Of Memory Exception,在4节点集群上有一个15GB的员工表。
当执行引擎更改为MapReduce时,它可以正常工作。

pig -F -x tez -useHCatalog<<EOF
EMP_TMP = LOAD 'employee' USING org.apache.hive.hcatalog.pig.HCatLoader();
EMP = foreach EMP_TMP generate emp_id, log_time , dept_id, 10 as emp_type;
EMP_VALID =  filter EMP by (ToDate(ToString(log_time, 'yyyy-MM-dd'),'yyyy-MM-dd') >= ToDate('2015-09-01','yyyy-MM-dd') and ToDate(ToString(log_time, 'yyyy-MM-dd'),'yyyy-MM-dd') <= ToDate('2015-09-30','yyyy-MM-dd'));
STORE EMP_VALID INTO 'EMP_VALID' USING org.apache.hive.hcatalog.pig.HCatStorer();
EOF

错误信息是,

2015-11-13 11:34:06,113 [PigTezLauncher-0] INFO  org.apache.tez.client.TezClient - Submitting dag to TezSession, sessionName=PigLatin:DefaultJobName, applicationId=application_1447412577542_0027, dagName=PigLatin:DefaultJobName-0_scope-0
grunt> 2015-11-13 11:34:07,953 [main] ERROR org.apache.pig.tools.grunt.Grunt - ERROR 6016: Out of memory.  

与群集内存和存储相比,表大小太小 Tez中是否有需要特定配置的内存参数?

1 个答案:

答案 0 :(得分:0)

我可以通过增加猪的堆大小来解决它,在猪中,其默认值很小。

export PIG_HEAPSIZE=8192