从DataFrameWriter获取SparkContext

时间:2016-08-26 12:31:49

标签: scala apache-spark spark-dataframe

对于DataFrame的SparkContext,我可以通过以下方式获取基础上下文:

df.rdd.sparkContext

我有什么方法可以用DataFrameWriter实现相同的功能,即。通过获取基础DataFrame / Rdd?

1 个答案:

答案 0 :(得分:0)

看起来只允许这是私人的成员。你可以用反思做到这一点:一般来说,这是一个坏主意,但如果你真的需要这个......

更好的方法:DataFrameWriter必须来自Dataset.write来电。除非它在第三方代码中,否则找到它发生的位置并在那里获取上下文。