标签: apache-spark pyspark
在Spark SqlContext中覆盖表的推荐方法是什么? 可以直接调用
modified_df.registerTempTable("same_table_name")
不删除sqlContext中的表?
答案 0 :(得分:1)
最佳做法可能是明确删除表格以避免混淆。但是,上面的代码会像你期望的那样覆盖表格。