标签: pyspark apache-spark-sql jupyter-notebook
无论如何要在多个jupyter笔记本上同时启用SparkSession而不使用stop(),或通过任何其他方式在不同笔记本上同时调用同一SparkSession
import pyspark from pyspark.sql import SparkSession spark = SparkSession.builder.enableHiveSupport().getOrCreate() spark.stop()