我正在做C代码,我有几个(数百万)malloc,每个请求20-30个字节的内存。
结果,GNU C Malloc和Jemalloc的开销达到40-50%。 DL Malloc效果更好,但开销仍然高达30%。
有没有办法在没有任何对齐/填充的情况下进行malloc?我知道这会慢一些,并且可能在一些CPU的C需要从不同的单词“重建”数据,但我准备换取内存使用的速度。
我可以使用内存池代替malloc,只要它可以在free()之后重用内存。
答案 0 :(得分:3)
malloc()
等。 C标准要求为任何数据类型提供充分对齐的指针,因此为了减少分配开销,您需要实现自己的分配器(或使用一些现有的分配器)。
一种可能性是为每个可能的分配大小建立一个池链。在每个池中,您可以使用位图来跟踪分配的项目和免费的项目。每个项目的开销只超过一位,但最终可能会有很多池链;这往往会使free()
变慢,因为它必须搜索正确的池。
我认为,更好的可能性是为小型分配创建一个池链。在每个池中,小块形成一个链表,单个unsigned char
跟踪长度和分配状态。这会产生未对齐的指针,但只需要超过一个char的开销。
例如:
#include <stdlib.h>
#include <string.h>
#include <limits.h>
#include <errno.h>
#include <stdio.h>
#define SMALL_POOL_SIZE 131072
#define SMALL_LIMIT ((UCHAR_MAX + 1U) / 2U)
struct small_pool {
struct small_pool *next;
unsigned int size;
unsigned int used;
unsigned char data[];
};
static struct small_pool *list = NULL;
在data[]
成员中,对于该大小的空闲块,第一个char为1到SMALL_LIMIT-1;对于1个char或更多的已使用块,第一个char为1或更大SMALL_LIMIT + 1。零和SMALL_LIMIT表示错误。可以实现空间积极的分配器,例如
void *small_alloc(const size_t size)
{
struct small_pool *pool;
if (size < 1 || size >= SMALL_LIMIT) {
errno = EINVAL;
return NULL;
}
pool = list;
while (pool != NULL) {
/* Unused space in the pool? */
if (pool->used + size < pool->size) {
unsigned char *const ptr = pool->data + pool->used;
/* Grab it. */
pool->used += size + 1U;
/* Create new slot. */
(*ptr) = size + SMALL_LIMIT;
/* Done. */
return ptr + 1U;
}
/* Check the free slots in the pool. */
{
unsigned char *const end = pool->data + pool->used;
unsigned char *ptr = pool->data;
unsigned char big_len = SMALL_LIMIT;
unsigned char *big_ptr = NULL;
while (ptr < end)
if (*ptr == 0U || *ptr == SMALL_LIMIT) {
/* Invalid pointer */
errno = EDOM;
return NULL;
} else
if (*ptr > SMALL_LIMIT) {
/* Used slot, skip */
ptr += (*ptr) - SMALL_LIMIT + 1U;
continue;
} else {
if (*ptr < size) {
/* Slot is too small, skip it */
ptr += (*ptr) + 1U;
continue;
} else
if (*ptr == size) {
/* Perfect slot; grab it. */
(*ptr) = size + SMALL_LIMIT;
return ptr + 1U;
} else
/* Remember smallest of the large enough slots */
if (*ptr < big_len) {
big_len = *ptr;
big_ptr = ptr;
}
ptr += (*ptr) + 1U;
}
if (big_ptr != NULL) {
(*big_ptr) = big_len + SMALL_LIMIT;
return big_ptr + 1;
}
}
/* Check the next pool. */
pool = pool->next;
}
/* Need a new pool. */
pool = malloc(SMALL_POOL_SIZE);
if (pool == NULL) {
errno = ENOMEM;
return NULL;
}
/* Initialize pool; use the initial slot for the new allocation. */
pool->used = size + 1;
pool->size = SMALL_POOL_SIZE - sizeof (struct small_pool);
pool->data[0] = size + SMALL_LIMIT;
/* Prepend this pool to the pool chain. */
pool->next = list;
list = pool;
/* Return the slot we used. */
return pool->data + 1;
}
它有一个简单的策略:如果池中有未使用的尾随空格,请使用它。否则,扫描池以查找未使用的插槽。如果有一个尺寸合适的插槽,请使用它;否则,使用最小的足够大的未使用的插槽。
有许多改进可能。例如,您可以将完整池保留在单独的列表中,以避免扫描它们。将找到空闲插槽的池移动到池列表的开头也可能是个好主意。
解除分配更复杂。如果我们在分配中的解除分配相对较少,并且不担心释放整个池,则释放可能就像
一样简单。int small_free(void *const item)
{
if (item == NULL)
return 0;
else {
struct small_pool *pool = list;
while (pool != NULL && !((unsigned char *)item > pool->data && (unsigned char *)item < pool->data + pool->used))
pool = pool->next;
if (pool != NULL) {
unsigned char *const ptr = (unsigned char *)item - 1;
if (*ptr > SMALL_LIMIT)
(*ptr) -= SMALL_LIMIT;
return 0;
}
return ENOENT;
}
}
假设您需要函数返回ENOENT
,以防分配实际上不是一个小的。如果验证要解除分配的指针是否有效很重要,比如调试,那么
int small_free(void *const item)
{
if (item == NULL)
return 0;
else {
struct small_pool *pool = list;
while (pool != NULL && !((unsigned char *)item > pool->data && (unsigned char *)item < pool->data + pool->used))
pool = pool->next;
if (pool != NULL) {
unsigned char *const end = pool->data + pool->used;
unsigned char *ptr = pool->data;
while (ptr < end)
if (*ptr == 0U || *ptr == SMALL_LIMIT)
return EDOM;
else
if (*ptr < SMALL_LIMIT) {
size_t len = (*ptr) + 1U;
/* Coalesce consecutive slots, if possible. */
while (len + ptr[len] < SMALL_LIMIT) {
(*ptr) = len + ptr[len];
len = (*ptr) + 1U;
}
ptr += len;
} else {
const size_t len = (*ptr) + 1U - SMALL_LIMIT;
/* Within the current slot.. probably should just
* compare item to ptr+1 instead. */
if ((unsigned char *)item > ptr && (unsigned char *)item < ptr + len) {
*ptr = len - 1U;
return 0;
}
ptr += len;
}
}
return ENOENT;
}
}
即使后一个版本在释放池中的最后一个块时也不会修剪->used
,也不会释放完全未使用的池。换句话说,上述解除分配只是一个粗略的例子。
速度方面,上述似乎至少比我机器上的GLIBC malloc()
/ free()
慢一个数量级。这是一个检查线性分配的简单测试 - 半随机解除分配模式:
/* Make sure this is prime wrt. 727 */
#define POINTERS 1000000
int main(void)
{
void **array;
size_t i;
fprintf(stderr, "Allocating an array of %lu pointers: ", (unsigned long)POINTERS);
fflush(stderr);
array = malloc((size_t)POINTERS * sizeof array[0]);
if (array == NULL) {
fprintf(stderr, "Failed.\n");
return EXIT_FAILURE;
}
fprintf(stderr, "Done.\n\n");
fprintf(stderr, "Allocating pointers in varying sizes.. ");
fflush(stderr);
for (i = 0; i < POINTERS; i++) {
const size_t n = 1 + ((i * 727) % (SMALL_LIMIT - 1));
if (!(array[i] = small_alloc(n))) {
if (errno == EDOM)
fprintf(stderr, "Failed at %lu; corrupted list.\n", (unsigned long)i + 1UL);
else
fprintf(stderr, "Failed at %lu: %s.\n", (unsigned long)i + 1UL, strerror(errno));
return EXIT_FAILURE;
}
}
fprintf(stderr, "Done.\n\n");
fprintf(stderr, "Deallocating pointers in a mixed order.. ");
fflush(stderr);
for (i = 0; i < POINTERS; i++) {
const size_t p = (i * 727) % POINTERS;
if (small_free(array[p])) {
if (errno == EDOM)
fprintf(stderr, "Failed at %lu: corrupted list.\n", (unsigned long)i + 1UL);
else
fprintf(stderr, "Failed at %lu: %s.\n", (unsigned long)i + 1UL, strerror(errno));
return EXIT_FAILURE;
}
}
fprintf(stderr, "Done.\n\n");
fprintf(stderr, "Deallocating the pointer array.. ");
fflush(stderr);
free(array);
fprintf(stderr, "Done.\n\n");
fflush(stderr);
return EXIT_SUCCESS;
}
在我看来,基于池的分配器的真正优势在于您可以立即释放整个池。考虑到这一点,也许你的工作量可以在构建你的结构时使用专门的分配器,压缩器阶段(能够调整指针)至少在结束时运行,并且如果已经完成足够数量的删除,也可能在构造期间运行。这种方法可以让你将暂时需要的内存释放回操作系统。 (如果没有压缩,大多数池可能至少留下一个分配,因此无法释放它。)
我认为这根本不是一个好答案,但更好的答案需要更多细节,特别是关于存储的数据结构,以及实践中出现的分配/解除分配模式。如果没有这些,我希望这至少给出了一些关于如何进行的想法。
答案 1 :(得分:1)
它不一定慢。 如果块是固定大小(或有限范围的大小),或者您实际上在逻辑序列(FIFO / FILO)中分配和取消分配,则通常可以通过处理“池”来提高性能和内存管理。
有一个可以实现或不适合您需要的升级库。
http://www.boost.org/doc/libs/1_57_0/libs/pool/doc/html/boost_pool/pool/interfaces.html
或者自己动手 - 分配大块内存并自己刻录。
请注意,它可能不会慢,但可能会失败。 当被要求加载对齐地址时,许多对齐的机器将“乱七八糟”。例如,实际加载向下舍入的地址,该地址将包含“正确”值之前的随机数据。 编译器绝对没有义务“重建”价值观,我会说他们做的事情并不常见。
因此,为了便于携带,您可能需要使用memcpy()
在使用前将对齐数据移出对齐。这不一定具有您认为的一些编译器内联memcpy()
的所有开销。
因此,池管理分配通常可以更快(可能更快)但memcpy()
可能更慢(尽管可能不会慢得多)。
这是秋千和环形交叉路口。