逐步构建一个numpy数组并测量内存使用情况

时间:2009-10-07 11:08:36

标签: python numpy memory-management

我有一系列大型文本文件(最多1个gig),这些文件是从需要在Python中分析的实验中输出的。它们最好加载到2D numpy数组中,这是第一个问题:

  • 由于在加载开始时行数未知,怎么可能 一个非常大的numpy数组是最有效地逐行构建的吗?

简单地将行添加到数组在内存方面效率很低,因为两个大型数组会暂时共存。如果您使用numpy.append,似乎会出现同样的问题。 stack函数很有前途,但理想情况下我希望将数组扩展到适当的位置。

这导致了第二个问题:

  • 大量观察Python程序的内存使用情况的最佳方法是什么 使用numpy数组?

为了研究上面的问题,我使用了通常的内存分析工具 - heapy和pympler - 但我只得到外部数组对象的大小(80字节)而不是它们包含的数据。除了粗略测量Python进程使用多少内存之外,如何在数组增长时获得“完整”大小?

本地详细信息:OSX 10.6,Python 2.6,但欢迎使用常规解决方案。

4 个答案:

答案 0 :(得分:7)

除了创建最大可能大小的空数组(numpy.empty),然后在最后使用视图时,无法确保可以增加数组的位置。你不能从小开始,因为无法保证你可以扩展地图的任何内存,而不会破坏其他一些数据。 (所有这些都比python低得多,允许你从解释器内部获得。)

你最好的选择可能是numpy.fromiter。查看源,随着项目数量的增加,阵列每次扩展50%以上。如果你可以很容易地得到行数(比如计算行数),你甚至可以传递一个计数。

答案 1 :(得分:2)

您是否尝试过使用memmap文件?您可以迭代输入文件(如果可能的话,以块为单位)并转换传入的数据并将它们作为行插入到内存映射的numpy数组中。缺点是在主内存不足的情况下会产生更多的磁盘I / O,并且需要从交换中进行分页。

请参阅:http://docs.scipy.org/doc/numpy/reference/generated/numpy.memmap.html

另一种选择是PyTables。你需要构建一些特殊的类似sql的表,但它很简单。实际上,它为您的数据提供透明磁盘持久性(自动序列化)和分层组织。它还限制了使用的主内存量。

请参阅:www.pytables.org/moin/HowToUse

祝你好运!

答案 2 :(得分:1)

可能的选择是先对文件进行一次传递,以计算行数,而不加载它们。

另一个选择是每次将表格大小加倍,这有两个好处:

  1. 您将只重新分配内存log(n)次,其中n是行数。
  2. 你只需要比你最大的桌子大50%的ram。
  3. 如果采用动态路由,可以测量第一行的长度(以字节为单位),然后通过计算(第一行中的num / num字节数)来猜测行数。从这个大小的表开始。

答案 3 :(得分:0)

问题基本上是文本文件。当您的输入数据存储在更高级的时候,可以避免这样的问题。举例来看h5py project。首先将数据转换为HDF5文件然后在HDF5文件上运行分析脚本是值得的。