使用Behemoth和map reduce转换为Tika时配置对象时出错

时间:2013-02-25 09:51:57

标签: hadoop apache-tika behemoth

我正在运行命令,使用this tutorial中给出的map reduce将巨型语料库转换为tika

我在执行此操作时遇到以下错误:

    13/02/25 14:44:00 INFO mapred.FileInputFormat: Total input paths to process : 1
13/02/25 14:44:01 INFO mapred.JobClient: Running job: job_201302251222_0017
13/02/25 14:44:02 INFO mapred.JobClient:  map 0% reduce 0%
13/02/25 14:44:09 INFO mapred.JobClient: Task Id : attempt_201302251222_0017_m_000000_0, Status : FAILED
java.lang.RuntimeException: Error in configuring object
    at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:93)
    at org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:64)
    at org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:117)
    at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:387)
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:325)
    at org.apache.hadoop.mapred.Child$4.run(Child.java:270)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:416)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1127)
    at org.apache.hadoop.mapred.Child.main(Child.java:264)
attempt_201302251222_0017_m_000001_0: log4j:WARN No appenders could be found for logger (org.apache.hadoop.hdfs.DFSClient).
attempt_201302251222_0017_m_000001_0: log4j:WARN Please initialize the log4j system properly.
13/02/25 14:44:14 INFO mapred.JobClient: Task Id : attempt_201302251222_0017_m_000001_1, Status : FAILED
java.lang.RuntimeException: Error in configuring object
    at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:93)
    at org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:64)
    at org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:117)
    at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:387)
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:325)
    at org.apache.hadoop.mapred.Child$4.run(Child.java:270)
    at java.security.AccessController.doPrivileged(Native Method)

我无法理解确切的问题。可能的原因是什么?我需要将Behemoth / Tika的任何jar副本添加到hadoop工作目录吗?

2 个答案:

答案 0 :(得分:1)

我遇到了同样的问题。 正如本page所述,该程序对我有所帮助。 运行“mvn clean install”后,tika工作按照教程中的描述进行。

答案 1 :(得分:1)

您提到的教程已过时。请参阅tutorial on wiki这是参考。 日志没有提供有关问题的任何有用信息,但是让Behemoth工作所需要的只是每个模块的作业文件。如果您在服务器上运行Hadoop,只需在作业文件上使用Hadoop命令,或者为简单起见使用behemoth script。 BTW DigitalPebble mailing list是一个更好的地方,可以提出有关Behemoth的问题

HTH

于连