spark-env.sh何时运行?

时间:2016-11-01 18:35:40

标签: apache-spark pyspark

我假设当我用

启动spark集群时spark-env.sh会运行
sbin/start-all.sh

但是,不知何故,我在spark-env.sh中设置的所有环境变量都没有在

之后设置

有什么问题?

  1. 当我重新启动spark cluster
  2. 时,Spark-env.sh无法运行
  3. 我的spark-env.sh出了问题,可能是语法
  4. 设置了env变量,我只是看不到它......

0 个答案:

没有答案