文件在python中编写

时间:2013-02-15 07:45:22

标签: python file postgresql csv

我的情况是我的脚本解析了大约20000个条目并将它们保存到db。我使用了大约需要35秒才能保存的事务,并且在将提交的查询保存在内存中之前也消耗了大量内存。

我找到了另一种方法来编写CSV,然后使用“copy_from”加载到postgres,这非常快。如果有人可以建议我在开始时打开文件,然后在加载到postgres时关闭文件,或者在单个条目准备好写入然后关闭时打开文件。

节省内存利用率的最佳方法是什么?

1 个答案:

答案 0 :(得分:1)

减少交易规模?