spark客户端无法找到spark.Spark class

时间:2017-11-22 18:52:59

标签: java apache-spark

我是Spark的新手。我在AWS上创建了一个Apache Spark AMI,添加了Maven 3,然后在7077上启动了一个master。然后我在sparkjava.com上运行了spark-basic-structure-1.0-SNAPSHOT的spark-basic-structure演示应用程序的mvn包。的.jar。

我用这个命令来运行它

spark-submit --class“app.Application”--master spark:// ip-172-31-29-154:7077 spark-basic-structure-1.0-SNAPSHOT.jar

但找不到课程

引起:java.lang.ClassNotFoundException:spark.Spark

我可以通过在--jars参数中明确地放置spark-core-2.7.1.jar来解决这个问题,但是不应该在我的回购中找到它吗?警告:我不太了解Maven。

一旦“修复”,我就会得到另一个未找到的课程

引起:java.lang.ClassNotFoundException:org.eclipse.jetty.server.Handler

我的路径是/usr/share/maven/bin:/home/ubuntu/bin:/home/ubuntu/.local/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin :在/ usr / bin中:/ sbin目录:/ bin中:在/ usr /游戏:在/ usr /本地/游戏:/ SNAP /斌:/ usr / lib中/ JVM / java的8甲骨文/斌:/ usr / lib中/ JVM / JAVA -8- ORACLE /分贝/ bin中:/ usr / lib中/ JVM / JAVA -8- ORACLE / JRE / bin中:/ usr / lib中/ JVM / JAVA -8-预言/ bin中:在/ usr /共享/ sbt-发射器封装/ bin中/ SBT-launch.jar / bin中:/ usr / lib中/火花/ bin中:/ usr / lib中/火花/ sbin目录

不确定我错过了什么。

0 个答案:

没有答案