标签: apache-spark pyspark
如果有一种方法可以避免指定执行者执行作业的命令
$spark-submit --master yarn-client --num-executors 3
我们知道num-executors选择了3个执行者,但是有没有办法使用其IP或某些东西来选择特定的执行者,或者避免使用特定的执行者。
谢谢。