我想在运行SparkPi示例时遇到此错误。
beyhan@beyhan:~/spark-1.2.0-bin-hadoop2.4$ /home/beyhan/spark-1.2.0-bin-hadoop2.4/bin/spark-submit --master ego-client --class org.apache.spark.examples.SparkPi /home/beyhan/spark-1.2.0-bin-hadoop2.4/lib/spark-examples-1.jar
Spark assembly has been built with Hive, including Datanucleus jars on classpath
Error: Master must start with yarn, spark, mesos, or local
Run with --help for usage help or --verbose for debug output
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
此外,我已经通过另一个终端启动了我的主人
>./sbin/start-master.sh
starting org.apache.spark.deploy.master.Master, logging to /home/beyhan/spark-1.2.0-bin-hadoop2.4/sbin/../logs/spark-beyhan-org.apache.spark.deploy.master.Master-1-beyhan.out
有什么建议吗? 感谢。
答案 0 :(得分:4)
下载并解压Spark:
$ cd ~/Downloads
$ wget -c http://archive.apache.org/dist/spark/spark-1.2.0/spark-1.2.0-bin-hadoop2.4.tgz
$ cd /tmp
$ tar zxf ~/Downloads/spark-1.2.0-bin-hadoop2.4.tgz
$ cd spark-1.2.0-bin-hadoop2.4/
开始掌握:
$ sbin/start-master.sh
从上面命令打印的文件中的日志中查找master的URL。让我们假设master是:spark://ego-server:7077
在这种情况下,您还可以访问以下网址找到您的主网址:http://localhost:8080/
启动一个从站,并将其连接到主站:
$ sbin/start-slave.sh --master spark://ego-server:7077
确保掌握并运行的另一种方法是启动绑定到该主控的shell:
$ bin/spark-submit --master "spark://ego-server:7077"
如果你得到一个火花壳,那么一切似乎都很好。
现在执行你的工作:
$ find . -name "spark-example*jar"
./lib/spark-examples-1.2.0-hadoop2.4.0.jar
$ bin/spark-submit --master "spark://ego-server:7077" --class org.apache.spark.examples.SparkPi ./lib/spark-examples-1.2.0-hadoop2.4.0.jar
答案 1 :(得分:3)
您获得的错误
错误:Master必须以yarn,spark,mesos或local
开头
表示火花无法识别--master ego-client
。
使用
--master local
本地执行spark或
--master spark://your-spark-master-ip:7077