为什么Apache Spark编程指南会继续使用SparkContext?

时间:2019-04-11 03:15:32

标签: apache-spark

我想编写一个新的Spark 2程序。根据Apache Spark RDD编程指南,我应该首先创建一个SparkContext。 https://spark.apache.org/docs/latest/rdd-programming-guide.html#initializing-spark。 但是,我知道SparkSession是Spark 2中所有上下文的网关。是否有理由不对我将来的任何Spark 2程序使用SparkSession?

0 个答案:

没有答案