我在'C'中编写了下面的示例程序,它是动态内存密集型的,并尝试对'glibc'默认分配器与Hoard分配器进行基准测试(就所用时间而言)。
1 #include <stdio.h>
2 #include <stdlib.h>
3
4 #define NUM_OF_BLOCKS (1 * 4096)
5
6 void *allocated_mem_ptr_arr[NUM_OF_BLOCKS];
7
8 int
9 main (int argc, char *argv[])
10 {
11 void *myblock = NULL;
12
13 int count, iter;
14
15 int blk_sz;
16
17 if (argc != 2)
18 {
19 fprintf (stderr, "Usage:./memory_intensive <Block size (KB)>\n\n");
20 exit (-1);
21 }
22
23 blk_sz = atoi (argv[1]);
24
25 for (iter = 0; iter < 1024; iter++)
26 {
27 /*
28 * The allocated memory is not accessed (read/write) hence the residual memory
29 * size remains low since no corresponding physical pages are being allocated
30 */
31 printf ("\nCurrently at iteration %d\n", iter);
32 fflush (NULL);
33
34 for (count = 0; count < NUM_OF_BLOCKS; count++)
35 {
36 myblock = (void *) malloc (blk_sz * 1024);
37 if (!myblock)
38 {
39 printf ("malloc() fails\n");
40 sleep (30);
41 return;
42 }
43
44 allocated_mem_ptr_arr[count] = myblock;
45 }
46
47 for (count = 0; count < NUM_OF_BLOCKS; count++)
48 {
49 free (allocated_mem_ptr_arr[count]);
50 }
51 }
52 }
作为此基准测试活动的结果,我得到了以下结果(块大小,默认分配器已用时间,Hoard已用时间):
可以看出,块大小&gt; = 16K时,Hoard性能严重下降。是什么原因?我们可以说Hoard不适用于分配大尺寸块的应用程序吗?
答案 0 :(得分:0)
http://locklessinc.com/benchmarks_allocator.shtml有一些不错的基准和解释:
对于小分配,它仍然与tcmalloc类似地执行。然而,超过大约64KiB,它的性能急剧下降。它使用中央“hoard”在线程之间重新分配内存。这是一个瓶颈,因为一次只有一个线程可以使用它。随着线程数量的增加,问题变得越来越严重。