我有一系列大型文本文件(最多1个gig),这些文件是从需要在Python中分析的实验中输出的。它们最好加载到2D numpy数组中,这是第一个问题:
简单地将行添加到数组在内存方面效率很低,因为两个大型数组会暂时共存。如果您使用numpy.append
,似乎会出现同样的问题。 stack
函数很有前途,但理想情况下我希望将数组扩展到适当的位置。
这导致了第二个问题:
为了研究上面的问题,我使用了通常的内存分析工具 - heapy和pympler - 但我只得到外部数组对象的大小(80字节)而不是它们包含的数据。除了粗略测量Python进程使用多少内存之外,如何在数组增长时获得“完整”大小?
本地详细信息:OSX 10.6,Python 2.6,但欢迎使用常规解决方案。
答案 0 :(得分:7)
除了创建最大可能大小的空数组(numpy.empty),然后在最后使用视图时,无法确保可以增加数组的位置。你不能从小开始,因为无法保证你可以扩展地图的任何内存,而不会破坏其他一些数据。 (所有这些都比python低得多,允许你从解释器内部获得。)
你最好的选择可能是numpy.fromiter。查看源,随着项目数量的增加,阵列每次扩展50%以上。如果你可以很容易地得到行数(比如计算行数),你甚至可以传递一个计数。
答案 1 :(得分:2)
您是否尝试过使用memmap文件?您可以迭代输入文件(如果可能的话,以块为单位)并转换传入的数据并将它们作为行插入到内存映射的numpy数组中。缺点是在主内存不足的情况下会产生更多的磁盘I / O,并且需要从交换中进行分页。
请参阅:http://docs.scipy.org/doc/numpy/reference/generated/numpy.memmap.html
另一种选择是PyTables。你需要构建一些特殊的类似sql的表,但它很简单。实际上,它为您的数据提供透明磁盘持久性(自动序列化)和分层组织。它还限制了使用的主内存量。
请参阅:www.pytables.org/moin/HowToUse
祝你好运!
答案 2 :(得分:1)
可能的选择是先对文件进行一次传递,以计算行数,而不加载它们。
另一个选择是每次将表格大小加倍,这有两个好处:
如果采用动态路由,可以测量第一行的长度(以字节为单位),然后通过计算(第一行中的num / num字节数)来猜测行数。从这个大小的表开始。
答案 3 :(得分:0)
问题基本上是文本文件。当您的输入数据存储在更高级的时候,可以避免这样的问题。举例来看h5py project。首先将数据转换为HDF5文件然后在HDF5文件上运行分析脚本是值得的。