标签: apache-spark pyspark
我很新兴。我观察到当我使用pyspark命令启动spark shell时,我有一个SparkContext可用sc。在我停止运行SparkContext之前,我不允许创建另一个。 SQLContext和SparkSession也是同样的情况吗?
pyspark
SparkContext
sc
SQLContext
SparkSession
答案 0 :(得分:-1)
不,我们也可以拥有多个SparkSession和SQLContext