师父必须从纱线,火花开始

时间:2015-10-15 13:39:52

标签: scala hadoop apache-spark sbt

我想在运行SparkPi示例时遇到此错误。

   beyhan@beyhan:~/spark-1.2.0-bin-hadoop2.4$ /home/beyhan/spark-1.2.0-bin-hadoop2.4/bin/spark-submit --master ego-client --class org.apache.spark.examples.SparkPi /home/beyhan/spark-1.2.0-bin-hadoop2.4/lib/spark-examples-1.jar
        Spark assembly has been built with Hive, including Datanucleus jars on classpath
        Error: Master must start with yarn, spark, mesos, or local
        Run with --help for usage help or --verbose for debug output
        Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties

此外,我已经通过另一个终端启动了我的主人

>./sbin/start-master.sh 
starting org.apache.spark.deploy.master.Master, logging to /home/beyhan/spark-1.2.0-bin-hadoop2.4/sbin/../logs/spark-beyhan-org.apache.spark.deploy.master.Master-1-beyhan.out

有什么建议吗? 感谢。

2 个答案:

答案 0 :(得分:4)

下载并解压Spark:

$ cd ~/Downloads
$ wget -c http://archive.apache.org/dist/spark/spark-1.2.0/spark-1.2.0-bin-hadoop2.4.tgz
$ cd /tmp
$ tar zxf ~/Downloads/spark-1.2.0-bin-hadoop2.4.tgz
$ cd spark-1.2.0-bin-hadoop2.4/

开始掌握:

$ sbin/start-master.sh

从上面命令打印的文件中的日志中查找master的URL。让我们假设master是:spark://ego-server:7077

在这种情况下,您还可以访问以下网址找到您的主网址:http://localhost:8080/

启动一个从站,并将其连接到主站:

$ sbin/start-slave.sh --master spark://ego-server:7077

确保掌握并运行的另一种方法是启动绑定到该主控的shell:

$ bin/spark-submit --master "spark://ego-server:7077"

如果你得到一个火花壳,那么一切似乎都很好。

现在执行你的工作:

$ find . -name "spark-example*jar"
./lib/spark-examples-1.2.0-hadoop2.4.0.jar

$ bin/spark-submit --master "spark://ego-server:7077" --class org.apache.spark.examples.SparkPi ./lib/spark-examples-1.2.0-hadoop2.4.0.jar

答案 1 :(得分:3)

您获得的错误

  

错误:Master必须以yarn,spark,mesos或local

开头

表示火花无法识别--master ego-client

使用

--master local

本地执行spark或

--master spark://your-spark-master-ip:7077