似乎我在Zeppelin读取解释器特定配置的方式中遗漏了一些东西。
例如,我将spark.cores.max
设置为zeppelin-env.sh
中的12和spark-defaults.sh
中的$SPARK_HOME/conf
,但启动Spark解释器时启动的Spark应用程序只有4个核心。< / p>
然后我在Zeppelin的解释器UI中更改了该属性并且它工作了。
zeppelin-env.sh
或zeppelin-site.xml
?答案 0 :(得分:2)
这里有一个层次结构:
zeppelin-env.sh
; zeppelin-env.sh
中配置的参数优先于spark-defaults.sh
中指定的参数;和,spark-defaults.sh
中指定的参数。这里有一个重要的二元性,关于任何火花应用的预期:
spark-submit
; spark-submit
指定的spark-defaults.sh
中指定的参数;和,spark-defaults.sh
中指定的参数。所以你所观察到的是预期的,虽然我也觉得它很混乱(并没有特别好记录在任何地方)。