我是一个Upstart新手(以及Spark的新手),
我已经能够使用以下方式启动Spark独立服务器:
./spark-1.5.2-bin-hadoop2.4/sbin/start-master.sh
我希望每次打开计算机时都会自动启动,我查找了Upstart并编写了这个简单的conf文件:
description "satrt a spark master with Upstart"
author "Ezer"
exec bash -c '/spark-1.5.2-bin-hadoop2.4/sbin/start-master start'
它不起作用,我得到填充我错过了一些基本的东西,任何帮助将不胜感激。
答案 0 :(得分:1)
怎么样
export SPARK_HOME={YOUR_ACTUAL_SPARK_HOME_PATH}
exec bash $SPARK_HOME/sbin/start-all.sh
在你的新贵conf
档案中?但是,请注意脚本生成进程,因此您无法使用upstart
实际管理服务。