我用scala编写了一个spark程序,但是当我使用“spark-submit”提交我的项目时,我遇到了java.lang.ClassNotFoundException。
我的.sbt文件:
name:="Spark Project"
version:="1.0"
scalaVersion:="2.10.5"
libraryDependencies+="org.apache.spark" %% "spark-core" % "1.3.0"
我的.scala文件的名称是SparkProject.scala,其中对象的名称也是SparkProject。
/* SparkProject.scala */
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
object SparkProject {
def main(args: Array[String]) {
val logFile = "YOUR_SPARK_HOME/README.md" // Should be some file on your system
val conf = new SparkConf().setAppName("Simple Application")
val sc = new SparkContext(conf)
val logData = sc.textFile(logFile, 2).cache()
val numAs = logData.filter(line => line.contains("a")).count()
val numBs = logData.filter(line => line.contains("b")).count()
println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
}
}
我提交项目的命令是:
spark-submit --class "SparkProject" --master local[12] target/scala-2.10/spark-project_2.10-1.0.jar
任何人都知道如何解决这个问题? 最后让我感到困惑的是当我尝试这里提供的示例[http://spark.apache.org/docs/latest/quick-start.html],it运行良好。但是当我构建一个新项目并提交它时出错了。 任何帮助将非常感谢。
答案 0 :(得分:6)
添加包名称对我有用。
我的代码也很简单:
package spark.wordcount
/* SimpleApp.scala */
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
object WordCount {
def main(args: Array[String]) {
val infile = "/input" // Should be some file on your system
val conf = new SparkConf().setAppName("word count")
val sc = new SparkContext(conf)
val indata = sc.textFile(infile, 2).cache()
val words = indata.flatMap(line => line.split(" ")).map(word => (word,1)).reduceByKey((a,b) => (a+b))
words.saveAsTextFile("/output")
println("All words are counted!")
}
}
我尝试像这样运行spark-submit: [root @ sparkmaster bin]#。/ spark -submit --class spark.wordcount.WordCount /opt/spark-wordcount-in-scala.jar并成功运行。
答案 1 :(得分:1)
删除包名称对我有用。
答案 2 :(得分:0)
我在Windows上运行spark并使用sbt构建时遇到了同样的错误。
我在代码中没有“package xxx”(E.g package spark.wordcount)这一行。如果你的代码中没有提到“package xxx”,那么执行命令
spark-submit --class "SparkProject" --master local[12] target/scala-2.10/spark-project_2.10-1.0.jar
应该像@SarveshKumarSingh在问题的评论部分中提到的那样工作。
但我出于不同的原因得到了错误。我在记事本中创建的比例文件是 SimpleApp.scala.txt 。当我将其正确保存为 SimpleApp.scala 时,它可以正常工作。
答案 3 :(得分:0)
我的两分钱,
我尝试了所有提到的解决方案 - 这些解决方案都是有效的。
在我的情况下,我在运行
之后更改了包名
sbt包
因此,我得到了上述错误。在重新编译即" $ sbt package"它对我有用。
答案 4 :(得分:0)
对于仍在寻找解决方案的其他人。我尝试了所有其他答案,但对我不起作用。当我删除类名上的双引号时,它适用于我。你可以试试 spark-submit --class SparkProject --master local [12]