我有一个Spark 2.0.1和2.2.0的环境设置。它们都以独立模式运行,包含一个主服务器和3个从服务器。它们各自位于相同的服务器上,并以完全相同的方式配置。我只想一次运行一个并且这样做我将SPARK_HOME环境版本设置为我希望启动的Spark版本的位置,并在该特定的bin文件夹中运行start-master.sh和start-slaves.sh版本
我有一个jar文件,我希望用它来执行所有Spark程序。这是版本的问题。我知道我可以在spark-submit
--jars
参数中传递它,但我不想考虑作业执行中的任何传输时间,所以我当前将jar文件放在启动前每个主节点和从节点的jars文件夹。这是一项常规任务,因为jar文件会经常更新。
如果我想切换Spark版本,我必须在我希望停止的版本的bin文件夹中运行stop-slaves.sh和stop-master.sh,然后再次完成上述过程。
我希望实现的关键是我可以区分罐子与执行时间的转移,以及我可以轻松切换版本。我可以使用我当前的设置执行此操作,但这一切都是手动完成的,我正在考虑自动化它。但是,如果已经有了解决方案可以满足我的需要,我不想花时间这么做。
有更好的方法吗?我正在看纱线,看看它能不能提供任何东西。