标签: apache-spark
我有一个关于在一个JVM中创建多个spark会话的查询。 SPARK-2243表示不支持创建多个Sparkcontexts。 Spark 2.0中的SparkSession也是如此。我还阅读了SparkSession API中的cloneSession方法,该方法允许创建SparkSession的相同副本并在两个会话之间共享基础SparkContext。这是否意味着一个JVM中可以有多个SparkSession?
SPARK-2243
cloneSession
SparkSession
SparkContext