我正试图从https://cwiki.apache.org/confluence/display/MAHOUT/Wikipedia+Bayes+Example
运行维基百科贝叶斯示例当我运行以下命令时:$ MAHOUT_HOME / bin / mahout wikipediaXMLSplitter -d $ MAHOUT_HOME / examples / temp / enwiki-latest-pages-articles10.xml -o wikipedia / chunks -c 64
我收到此错误:
Exception in thread "main" java.lang.NoClassDefFoundError: classpath
Caused by: java.lang.ClassNotFoundException: classpath
at java.net.URLClassLoader$1.run(URLClassLoader.java:217)
at java.security.AccessController.doPrivileged(Native Method)
at java.net.URLClassLoader.findClass(URLClassLoader.java:205)
at java.lang.ClassLoader.loadClass(ClassLoader.java:323)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:294)
at java.lang.ClassLoader.loadClass(ClassLoader.java:268)
at java.lang.ClassLoader.loadClassInternal(ClassLoader.java:336)
Running on hadoop, using /x/.../bin/hadoop and HADOOP_CONF_DIR=
MAHOUT-JOB: /x/.../mahout-distribution-0.7/mahout-examples-0.7-job.jar
12/07/25 11:22:06 WARN driver.MahoutDriver: Unable to add class: wikipediaXMLSplitter
12/07/25 11:22:06 WARN driver.MahoutDriver: No wikipediaXMLSplitter.props found on classpath, will use command-line arguments only
Unknown program 'wikipediaXMLSplitter' chosen.
答案 0 :(得分:0)
我遇到了同样的问题,它是由bin / mahout中的代码引起的(仅在0.7版本中):
if [ -x "$HADOOP_BINARY" ] ; then
HADOOP_BINARY_CLASSPATH=$("$HADOOP_BINARY" classpath)
fi
它会执行hadoop classpath
并导致错误。也许hadoop的版本对于mahout 0.7来说太旧了。
无论如何,我评论了这三行,它运行良好。
答案 1 :(得分:0)
也许你应该使用:
mahout -core ... ...
这应该有效
答案 2 :(得分:0)
我遇到了同样的问题。它通过指定org.apache.mahout.text.wikipedia.WikipediaXmlSplitter来解决[另请注意不同的大写]
$ MAHOUT_HOME / bin / mahout org.apache.mahout.text.wikipedia.WikipediaXmlSplitter -d $ MAHOUT_HOME / examples / tmp / enwiki-latest-pages-articles.xml -o wikipedia / chunks