如何在Pyspark会话中释放内存

时间:2019-07-03 11:57:06

标签: python apache-spark pyspark

这是我的代码示例:

ses = SparkSession.Builder().config(conf=conf).enableHiveSupport().getOrCreate()
res = ses.sql("select * from tbl")
res.write.format("hive").saveAsTable("tablename"), mode='append')
res.unpersist()

但是在执行htop后,该进程使用了​​63GB的RAM。我也尝试过ses.catalog.clearCache(),什么也没用,仍然使用了63GB。

如何在不重新初始化spark会话的情况下释放内存?

编辑。 我也尝试删除res对象,该对象在htop中仍为63gb。 也尝试过此操作,它什么都不打印:

for (id, rdd) in ses.sparkContext._jsc.getPersistentRDDs().items():
    print(id, rdd)

0 个答案:

没有答案