我无法在PySpark中创建多个sparkContexts

时间:2015-12-05 16:51:08

标签: apache-spark multiple-instances

我使用命令

conf = SparkConf().setMaster("spark://10.21.208.21:7077").set("spark.driver.allowMultipleContexts", "true")
conf.getAll()

enter image description here
不能

1 个答案:

答案 0 :(得分:0)

spark.driver.allowMultipleContexts 选项仅适用于内部测试用例。它不适合外部使用,不应该在用户程序中使用。