标签: python file postgresql csv
我的情况是我的脚本解析了大约20000个条目并将它们保存到db。我使用了大约需要35秒才能保存的事务,并且在将提交的查询保存在内存中之前也消耗了大量内存。
我找到了另一种方法来编写CSV,然后使用“copy_from”加载到postgres,这非常快。如果有人可以建议我在开始时打开文件,然后在加载到postgres时关闭文件,或者在单个条目准备好写入然后关闭时打开文件。
节省内存利用率的最佳方法是什么?
答案 0 :(得分:1)
减少交易规模?