我试图从文档中运行第一个示例:
Spark运行在Java 6+和Python 2.6+上。对于Scala API,Spark 1.0.0 使用Scala 2.10。您需要使用兼容的Scala版本 (2.10.x)。
当我运行命令时会发生这种情况:
./bin/run-example examples/src/main/scala/org/apache/spark/examples/SparkPi.scala 10
Exception in thread "main" java.lang.ClassNotFoundException: org.apache.spark.examples.examples/src/main/scala/org/apache/spark/examples/SparkPi.scala
at java.lang.Class.forName0(Native Method)
at java.lang.Class.forName(Class.java:270)
at org.apache.spark.deploy.SparkSubmit$.launch(SparkSubmit.scala:289)
at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:55)
at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
我使用版本For Hadoop 2 (HDP2, CDH5)
已经尝试过scala 2.9.3,2.10.3和2.11
一些想法?
答案 0 :(得分:5)
您需要指定示例类的名称,而不是源文件的路径;试试
./bin/run-example SparkPi 10
Spark文档的Running the Examples and Shell部分对此进行了描述。