我正在尝试使用MapReduce将数据写入Accumulo的表中。 以下是我对accumulo的mapreduce代码。
Job job = Job.getInstance(conf);
AccumuloOutputFormat.setZooKeeperInstance(job, accumuloInstance, zooKeepers);
AccumuloOutputFormat.setDefaultTableName(job, accumuloTableName);
AccumuloOutputFormat.setConnectorInfo(job, accumuloUser, new PasswordToken(accumuloPassword));
执行时,我遇到以下异常:
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/thrift/TException
at org.apache.accumulo.core.client.mapreduce.lib.util.ConfiguratorBase.setConnectorInfo(ConfiguratorBase.java:107)
at org.apache.accumulo.core.client.mapreduce.AccumuloOutputFormat.setConnectorInfo(AccumuloOutputFormat.java:94)
at core.accumulo.mapreduce.AccumuloMapReduceWrite.main(AccumuloMapReduceWrite.java:96)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.hadoop.util.RunJar.main(RunJar.java:212)
我如何解决这个问题?我也试过并试过几个URL。但它无济于事。
答案 0 :(得分:1)
看起来您的作业类路径缺少Thrift类。我假设您使用标准hadoop job
命令运行您的工作。
在这种情况下,您有两个选择:
手动将必要的jar添加到类路径中。这将是thrift.jar
,accumulo-start.jar
,accumulo-core.jar
,可能还有accumulo-trace.jar
,具体取决于您的版本。您希望使用-libjars
选项指定这些内容,可以使用blog post进行更全面的阅读。
使用Apache Accumulo工具中的内置功能来启动您的工作。大多数版本的Accumulo都带有一个名为tool.sh
的启动器脚本,它会自动为您添加适当的罐子。它通常位于$ACCUMULO_HOME/bin/tool.sh
下。某些发行版可能会将其称为其他内容,例如accumulo-tool
,以便将其与其他工具区分开来。可以在user manual(第三个代码块)中看到示例。