为什么将SparkSession对象放置在org.apache.spark.sql包中,即使sql的单独对象是SqlContext?

时间:2018-08-28 06:01:13

标签: apache-spark

它与SqlContext和SparkSession混淆,因为它们都属于同一软件包,但是SparkSession现在用于与集群通信。是否有任何特殊原因将两者都放在sql包下?理想情况下,SparkSession应该是核心程序包的一部分。

0 个答案:

没有答案