在Spark SqlContext中覆盖表

时间:2016-04-12 20:30:36

标签: apache-spark pyspark

在Spark SqlContext中覆盖表的推荐方法是什么? 可以直接调用

modified_df.registerTempTable("same_table_name")

不删除sqlContext中的表?

1 个答案:

答案 0 :(得分:1)

最佳做法可能是明确删除表格以避免混淆。但是,上面的代码会像你期望的那样覆盖表格。