java.lang.ClassNotFoundException,当我使用“spark-submit”和新的类名而不是“SimpleApp”时,

时间:2015-04-08 10:02:46

标签: scala apache-spark

我用scala编写了一个spark程序,但是当我使用“spark-submit”提交我的项目时,我遇到了java.lang.ClassNotFoundException。

我的.sbt文件:

name:="Spark Project"

version:="1.0"

scalaVersion:="2.10.5"

libraryDependencies+="org.apache.spark" %% "spark-core" % "1.3.0"

我的.scala文件的名称是SparkProject.scala,其中对象的名称也是SparkProject。

/* SparkProject.scala */
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf

object SparkProject {
  def main(args: Array[String]) {
    val logFile = "YOUR_SPARK_HOME/README.md" // Should be some file on your system
    val conf = new SparkConf().setAppName("Simple Application")
    val sc = new SparkContext(conf)
    val logData = sc.textFile(logFile, 2).cache()
    val numAs = logData.filter(line => line.contains("a")).count()
    val numBs = logData.filter(line => line.contains("b")).count()
    println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
  }
}

我提交项目的命令是:

spark-submit --class "SparkProject" --master local[12] target/scala-2.10/spark-project_2.10-1.0.jar

任何人都知道如何解决这个问题? 最后让我感到困惑的是当我尝试这里提供的示例[http://spark.apache.org/docs/latest/quick-start.html],it运行良好。但是当我构建一个新项目并提交它时出错了。 任何帮助将非常感谢。

5 个答案:

答案 0 :(得分:6)

添加包名称对我有用。

我的代码也很简单:

package spark.wordcount

/* SimpleApp.scala */
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf

object WordCount {
  def main(args: Array[String]) {
    val infile = "/input" // Should be some file on your system
    val conf = new SparkConf().setAppName("word count")
    val sc = new SparkContext(conf)
    val indata = sc.textFile(infile, 2).cache()
    val words = indata.flatMap(line => line.split(" ")).map(word => (word,1)).reduceByKey((a,b) => (a+b))
    words.saveAsTextFile("/output")
    println("All words are counted!")
  }
}

我尝试像这样运行spark-submit: [root @ sparkmaster bin]#。/ spark -submit --class spark.wordcount.WordCount /opt/spark-wordcount-in-scala.jar并成功运行。

答案 1 :(得分:1)

删除包名称对我有用。

答案 2 :(得分:0)

我在Windows上运行spark并使用sbt构建时遇到了同样的错误。

我在代码中没有“package xxx”(E.g package spark.wordcount)这一行。如果你的代码中没有提到“package xxx”,那么执行命令

spark-submit --class "SparkProject" --master local[12] target/scala-2.10/spark-project_2.10-1.0.jar

应该像@SarveshKumarSingh在问题的评论部分中提到的那样工作。

但我出于不同的原因得到了错误。我在记事本中创建的比例文件是 SimpleApp.scala.txt 。当我将其正确保存为 SimpleApp.scala 时,它可以正常工作。

答案 3 :(得分:0)

我的两分钱,

我尝试了所有提到的解决方案 - 这些解决方案都是有效的。 在我的情况下,我在运行
之后更改了包名 sbt包
因此,我得到了上述错误。在重新编译即" $ sbt package"它对我有用。

答案 4 :(得分:0)

对于仍在寻找解决方案的其他人。我尝试了所有其他答案,但对我不起作用。当我删除类名上的双引号时,它适用于我。你可以试试 spark-submit --class SparkProject --master local [12]