标签: apache-spark spark-submit
是否可以通过始终以特定配置启动(例如,在YARN中)启动Driver的方式配置spark,而各个单独的Spark Job不能覆盖该配置。
例如-通过在spark提交中指定--conf方法,可以覆盖spark.driver.extraJavaOptions。
请提出一种可行的方法。