标签: apache-spark
我想编写一个新的Spark 2程序。根据Apache Spark RDD编程指南,我应该首先创建一个SparkContext。 https://spark.apache.org/docs/latest/rdd-programming-guide.html#initializing-spark。 但是,我知道SparkSession是Spark 2中所有上下文的网关。是否有理由不对我将来的任何Spark 2程序使用SparkSession?