Accumulo Write:尝试从mapreduce创建和插入数据

时间:2015-02-13 08:04:47

标签: hadoop mapreduce accumulo

我正在尝试使用MapReduce将数据写入Accumulo的表中。 以下是我对accumulo的mapreduce代码。

Job job = Job.getInstance(conf);
AccumuloOutputFormat.setZooKeeperInstance(job, accumuloInstance, zooKeepers);
AccumuloOutputFormat.setDefaultTableName(job, accumuloTableName);
AccumuloOutputFormat.setConnectorInfo(job, accumuloUser, new PasswordToken(accumuloPassword));

执行时,我遇到以下异常:

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/thrift/TException
    at org.apache.accumulo.core.client.mapreduce.lib.util.ConfiguratorBase.setConnectorInfo(ConfiguratorBase.java:107)
    at org.apache.accumulo.core.client.mapreduce.AccumuloOutputFormat.setConnectorInfo(AccumuloOutputFormat.java:94)
    at core.accumulo.mapreduce.AccumuloMapReduceWrite.main(AccumuloMapReduceWrite.java:96)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:606)
    at org.apache.hadoop.util.RunJar.main(RunJar.java:212)

我如何解决这个问题?我也试过并试过几个URL。但它无济于事。

1 个答案:

答案 0 :(得分:1)

看起来您的作业类路径缺少Thrift类。我假设您使用标准hadoop job命令运行您的工作。

在这种情况下,您有两个选择:

  1. 手动将必要的jar添加到类路径中。这将是thrift.jaraccumulo-start.jaraccumulo-core.jar,可能还有accumulo-trace.jar,具体取决于您的版本。您希望使用-libjars选项指定这些内容,可以使用blog post进行更全面的阅读。

  2. 使用Apache Accumulo工具中的内置功能来启动您的工作。大多数版本的Accumulo都带有一个名为tool.sh的启动器脚本,它会自动为您添加适当的罐子。它通常位于$ACCUMULO_HOME/bin/tool.sh下。某些发行版可能会将其称为其他内容,例如accumulo-tool,以便将其与其他工具区分开来。可以在user manual(第三个代码块)中看到示例。