理解glibc malloc修剪

时间:2016-07-28 18:54:09

标签: linux malloc free glibc

我目前正在处理的一些程序消耗的内存比我想象的要多得多。所以我想了解glibc malloc修剪是如何工作的。我写了以下测试:

#include <malloc.h>
#include <unistd.h>

#define NUM_CHUNKS 1000000
#define CHUNCK_SIZE 100

int main()
{
    // disable fast bins
    mallopt(M_MXFAST, 0);

    void** array  = (void**)malloc(sizeof(void*) * NUM_CHUNKS);

    // allocating memory
    for(unsigned int i = 0; i < NUM_CHUNKS; i++)
    {
        array[i] = malloc(CHUNCK_SIZE);
    }

    // releasing memory ALMOST all memory
    for(unsigned int i = 0; i < NUM_CHUNKS - 1 ; i++)
    {
        free(array[i]);
    }

    // when enabled memory consumption reduces
    //int ret = malloc_trim(0);
    //printf("ret=%d\n", ret);

    malloc_stats();

    sleep(100000);
}

测试输出(不调用malloc_trim):

Arena 0:
system bytes     =  112054272
in use bytes     =        112
Total (incl. mmap):
system bytes     =  120057856
in use bytes     =    8003696
max mmap regions =          1
max mmap bytes   =    8003584

尽管几乎所有内存都已发布,但此测试代码消耗的驻留内存比预期多得多:

[root@node0-b3]# ps aux | grep test
root     14662  1.8  0.4 129736 **118024** pts/10  S    20:19   0:00 ./test

处理粉碎:

0245e000-08f3b000 rw-p 00000000 00:00 0                                  [heap]
Size:             109428 kB
Rss:              109376 kB
Pss:              109376 kB
Shared_Clean:          0 kB
Shared_Dirty:          0 kB
Private_Clean:         0 kB
Private_Dirty:    109376 kB
Referenced:       109376 kB
Anonymous:        109376 kB
AnonHugePages:         0 kB
Swap:                  0 kB
KernelPageSize:        4 kB
MMUPageSize:           4 kB
Locked:                0 kB
VmFlags: rd wr mr mw me ac 
7f1c60720000-7f1c60ec2000 rw-p 00000000 00:00 0 
Size:               7816 kB
Rss:                7816 kB
Pss:                7816 kB
Shared_Clean:          0 kB
Shared_Dirty:          0 kB
Private_Clean:         0 kB
Private_Dirty:      7816 kB
Referenced:         7816 kB
Anonymous:          7816 kB
AnonHugePages:         0 kB
Swap:                  0 kB
KernelPageSize:        4 kB
MMUPageSize:           4 kB
Locked:                0 kB

当我启用对malloc_trim的调用时,测试的输出几乎保持不变:

ret=1
Arena 0:
system bytes     =  112001024
in use bytes     =        112
Total (incl. mmap):
system bytes     =  120004608
in use bytes     =    8003696
max mmap regions =          1
max mmap bytes   =    8003584

然而,RSS显着下降:

[root@node0-b3]# ps aux | grep test
root     15733  0.6  0.0 129688  **8804** pts/10   S    20:20   0:00 ./test

处理smaps(在malloc_trim之后):

01698000-08168000 rw-p 00000000 00:00 0                                  [heap]
Size:             109376 kB
Rss:                   8 kB
Pss:                   8 kB
Shared_Clean:          0 kB
Shared_Dirty:          0 kB
Private_Clean:         0 kB
Private_Dirty:         8 kB
Referenced:            8 kB
Anonymous:             8 kB
AnonHugePages:         0 kB
Swap:                  0 kB
KernelPageSize:        4 kB
MMUPageSize:           4 kB
Locked:                0 kB
VmFlags: rd wr mr mw me ac 
7f508122a000-7f50819cc000 rw-p 00000000 00:00 0 
Size:               7816 kB
Rss:                7816 kB
Pss:                7816 kB
Shared_Clean:          0 kB
Shared_Dirty:          0 kB
Private_Clean:         0 kB
Private_Dirty:      7816 kB
Referenced:         7816 kB
Anonymous:          7816 kB
AnonHugePages:         0 kB
Swap:                  0 kB
KernelPageSize:        4 kB
MMUPageSize:           4 kB
Locked:                0 kB

在调用malloc_trim之后,堆被破坏了。我假设8MB mmap段仍然可用,因为最后一块内存未发布。

为什么malloc不会自动执行堆修剪? 有没有办法配置malloc,以便自动完成修剪(何时可以节省大量内存)?

我正在使用glibc 2.17版。

1 个答案:

答案 0 :(得分:4)

主要由于历史原因,小分配的内存来自使用brk系统调用管理的池。这是一个非常古老的系统调用 - 至少与Version 6 Unix一样久 - 它唯一能做的就是改变&#34;竞技场的大小&#34;他在记忆中的位置是固定的。这意味着,brk池不能缩小超过仍然分配的块。

您的程序分配N个内存块,然后释放N-1个内存。它没有解除分配的一个块是位于最高地址的块。这是brk最糟糕的情况:即使99.99%的游泳池未使用,也无法减小尺寸!如果您更改程序以使其不会释放的块为array[0]而不是array[NUM_CHUNKS-1],则应在最终调用free时看到RSS和地址空间缩小。

当您明确调用malloc_trim时,它会尝试使用Linux扩展madvise(MADV_DONTNEED)解决此限制,该扩展释放物理RAM,但不释放地址空间(如您所见)。我不知道为什么只有在明确调用malloc_trim时才会发生这种情况。

顺便提一下,8MB mmap段是为array初始分配的。