如何阅读大文件而不消耗内存和快速

时间:2016-04-25 17:04:49

标签: python bigdata

我的文件大小 15-16 GB 包含 \ n 分隔的JSON数据(约70-80密耳数据)。

在python中读取如此大的文件的最简单方法是什么,而不会消耗太多内存而且速度也快。

同时在读取如此大的文件时,如果脚本在如何使用python从上一个读取行恢复读取之间失败?

0 个答案:

没有答案