ClassNotFoundException org.apache.mahout.math.VectorWritable

时间:2012-10-30 13:11:53

标签: java hadoop mahout

我正在尝试将csv文件转换为序列文件,以便我可以跨数据训练和运行分类器。我有一个作业java文件,我编译,然后jar到mahout工作jar。当我尝试hadoop jar我在mahout jar中的工作时,我得到一个java.lang.ClassNotFoundException: org.apache.mahout.math.VectorWritable。我不确定为什么这是因为如果我看着mahout jar,那个类确实存在。

以下是我正在做的步骤

#get new copy of mahout jar
rm iris.jar
cp /home/stephen/home/libs/mahout-distribution-0.7/core/target/mahout-core-0.7-job.jar iris.jar    
javac -cp :/home/stephen/home/libs/hadoop-1.0.4/hadoop-core-1.0.4.jar:/home/stephen/home/libs/mahout-distribution-0.7/core/target/mahout-core-0.7-job.jar -d bin/ src/edu/iris/seq/CsvToSequenceFile.java    
jar ufv iris.jar -C bin .    
hadoop jar iris.jar edu.iris.seq.CsvToSequenceFile iris-data iris-seq

这就是我的java文件的样子

public class CsvToSequenceFile {

public static void main(String[] args) throws IOException,
        InterruptedException, ClassNotFoundException {

    String inputPath = args[0];
    String outputPath = args[1];

    Configuration conf = new Configuration();
    Job job = new Job(conf);
    job.setJobName("Csv to SequenceFile");
    job.setJarByClass(Mapper.class);

    job.setMapperClass(Mapper.class);
    job.setReducerClass(Reducer.class);

    job.setNumReduceTasks(0);

    job.setOutputKeyClass(LongWritable.class);
    job.setOutputValueClass(VectorWritable.class);

    job.setOutputFormatClass(SequenceFileOutputFormat.class);
    job.setInputFormatClass(TextInputFormat.class);

    TextInputFormat.addInputPath(job, new Path(inputPath));
    SequenceFileOutputFormat.setOutputPath(job, new Path(outputPath));

    // submit and wait for completion
    job.waitForCompletion(true);
}

}

以下是命令行中的错误

2/10/30 10:43:32 WARN mapred.JobClient: Use GenericOptionsParser for parsing the arguments. Applications should implement Tool for the same.
12/10/30 10:43:33 INFO input.FileInputFormat: Total input paths to process : 1
12/10/30 10:43:33 INFO util.NativeCodeLoader: Loaded the native-hadoop library
12/10/30 10:43:33 WARN snappy.LoadSnappy: Snappy native library not loaded
12/10/30 10:43:34 INFO mapred.JobClient: Running job: job_201210300947_0005
12/10/30 10:43:35 INFO mapred.JobClient:  map 0% reduce 0%
12/10/30 10:43:50 INFO mapred.JobClient: Task Id : attempt_201210300947_0005_m_000000_0, Status : FAILED
java.lang.RuntimeException: java.lang.RuntimeException: java.lang.ClassNotFoundException: org.apache.mahout.math.VectorWritable
    at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:899)
    at org.apache.hadoop.mapred.JobConf.getOutputValueClass(JobConf.java:929)
    at org.apache.hadoop.mapreduce.JobContext.getOutputValueClass(JobContext.java:145)
    at org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat.getRecordWriter(SequenceFileOutputFormat.java:61)
    at org.apache.hadoop.mapred.MapTask$NewDirectOutputCollector.<init>(MapTask.java:628)
    at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:753)
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:370)
    at org.apache.hadoop.mapred.Child$4.run(Child.java:255)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:415)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1121)
    at org.apache.hadoop.mapred.Child.main(Child.java:249)
Caused by: java.lang.RuntimeException: java.lang.ClassNotFoundException: org.apache.mahout.math.VectorWritable
    at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:867)
    at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:891)
    ... 11 more

任何想法如何解决这个问题,或者我是否正在尝试正确地执行此过程?我是hadoop和mahout的新手,所以如果我正在做一些艰难的事情,请告诉我。谢谢!

3 个答案:

答案 0 :(得分:2)

这是一个非常常见的问题,几乎可以肯定是你在hadoop命令中指定类路径的问题。

hadoop的工作方式,在你给出“hadoop”命令之后,它将你的工作发送到tasktracker来执行。因此,重要的是要记住你的工作是在一个单独的JVM上执行的,它有自己的类路径等。你用“hadoop”命令做的部分工作是指定应该使用的类路径,等等。 / p>

如果你使用maven作为构建系统,我强烈建议使用shade plugin构建一个“胖罐”。这将构建一个包含所有必要依赖项的jar,当您向hadoop作业添加依赖项时,您不必担心类路径问题,因为您将运出一个jar。

如果您不想走这条路,请查看this article,其中介绍了您的问题和一些可能的解决方案。特别是,这应该适合你:

  

将JAR包含在hadoop jar …命令的“-libjars”命令行选项中。

答案 1 :(得分:0)

尝试明确指定类路径,而不是hadoop jar iris.jar edu.iris.seq.CsvToSequenceFile iris-data iris-seq尝试类似java -cp ...

的内容

答案 2 :(得分:0)

创建jar时使用依赖项创建jar(map / reduce)。

参考。对于maven,您可以在pom.xml中添加以下代码并编译代码&lt;&lt; mvn clean package assembly:single&gt;&gt; 。这将在目标文件夹中创建具有依赖性的jar,并且创建的jar可能看起来像&lt;&gt; -1.0-SNAPSHOT-jar-with-dependencies.jar

<build>
<plugins>
<plugin>
<artifactId>maven-assembly-plugin</artifactId>
<configuration>
<descriptorRefs>
<descriptorRef>jar-with-dependencies</descriptorRef>
</descriptorRefs>
<executions>
<execution>
<phase>package</phase>
<goals>
<goal>single</goal>
</goals>
</execution>
</executions>
</configuration>
</plugin>
</plugins>
</build>

希望这能回答你的疑问。