与mapreduce的hcatalog

时间:2013-01-02 12:06:53

标签: hadoop mapreduce hive hcatalog

执行MapReduce程序时出现以下错误。 我已将所有jar放在hadoop / lib目录中,并且还在-libjars中提到了jar。

这是我正在执行的cmd:

$HADOOP_HOME/bin/hadoop --config $HADOOP_HOME/conf jar /home/shash/distinct.jar  HwordCount -libjars $LIB_JARS WordCount HWordCount2

java.lang.RuntimeException: java.lang.ClassNotFoundException: 
org.apache.hcatalog.mapreduce.HCatOutputFormat at 
org.apache.hadoop.conf.Configuration.getClass(Configuration.java:996) at 
org.apache.hadoop.mapreduce.JobContext.getOutputFormatClass(JobContext.java:248) at org.apache.hadoop.mapred.Task.initialize(Task.java:501) at 
org.apache.hadoop.mapred.MapTask.run(MapTask.java:306) at org.apache.hadoop.mapred.Child$4.run(Child.java:270) at 
java.security.AccessController.doPrivileged(Native Method) at 
javax.security.auth.Subject.doAs(Subject.java:415) at 
org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1127) at 
org.apache.hadoop.mapred.Child.main(Child.java:264) Caused by: java.lang.ClassNotFoundException: org.apache.hcatalog.mapreduce.HCatOutputFormat 
at java.net.URLClassLoader$1.run(URLClassLoader.java:366) at 
java.net.URLClassLoader$1.run(URLClassLoader.java:355) at 
java.security.AccessController.doPrivileged(Native Method) at 
java.net.URLClassLoader.findClass(URLClassLoader.java:354) at 
java.lang.ClassLoader.loadClass(ClassLoader.java:423) at 
sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308) at 
java.lang.ClassLoader.loadClass(ClassLoader.java:356) at 
java.lang.Class.forName0(Native Method) at 
java.lang.Class.forName(Class.java:264) at 
org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:943) 
at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:994) ... 
8 more

2 个答案:

答案 0 :(得分:2)

确保LIB_JARS是以逗号分隔的列表(与冒号分隔的CLASSPATH相反)

答案 1 :(得分:0)

  

适用于CDH 5.0.x CDH 5.1.x CDH 5.2.x CDH 5.3.x Sqoop

     

原因Sqoop无法接收HCatalog库,因为Cloudera   Manager未设置HIVE_HOME环境。它需要设置   手动

使用以下JIRA跟踪此问题: https://issues.apache.org/jira/browse/SQOOP-2145

自版本5.4.0起,此JIRA的修复程序已包含在CDH中。

解决方法:适用于低于5.4.0的CDH版本。

在调用Sqoop命令或将它们添加到/etc/sqoop/conf/sqoop-env.sh之前在shell中执行以下命令(如果它不存在则创建一个):

export HIVE_HOME=/opt/cloudera/parcels/CDH/lib/hive   (for parcel installation)
export HIVE_HOME=/usr/lib/hive (for package installation)