pyspark:是否允许多个SQLContexts?

时间:2018-04-18 06:24:29

标签: apache-spark pyspark

我很新兴。我观察到当我使用pyspark命令启动spark shell时,我有一个SparkContext可用sc。在我停止运行SparkContext之前,我不允许创建另一个。 SQLContextSparkSession也是同样的情况吗?

1 个答案:

答案 0 :(得分:-1)

不,我们也可以拥有多个SparkSession和SQLContext