MongoDB:内存不足

时间:2012-10-26 18:51:57

标签: mongodb

我想知道MongoDB内存消耗。我已经阅读了相应的手册部分和有关该主题的其他问题,但我认为这种情况有所不同。我可以问你的意见吗?

这是DB日志文件中的错误:

Fri Oct 26 20:34:00 [conn1] ERROR: mmap private failed with out of memory. (64 bit build) 
Fri Oct 26 20:34:00 [conn1] Assertion: 13636:file /docdata/mongodb/data/xxx_letters.5 open/create failed in createPrivateMap (look in log for more information)

这些是数据文件:

total 4.0G
drwxr-xr-x 2 mongodb mongodb 4.0K 2012-10-26 20:21 journal
-rw------- 1 mongodb mongodb  64M 2012-10-25 19:34 xxx_letters.0
-rw------- 1 mongodb mongodb 128M 2012-10-20 22:10 xxx_letters.1
-rw------- 1 mongodb mongodb 256M 2012-10-24 09:10 xxx_letters.2
-rw------- 1 mongodb mongodb 512M 2012-10-26 10:04 xxx_letters.3
-rw------- 1 mongodb mongodb 1.0G 2012-10-26 19:56 xxx_letters.4
-rw------- 1 mongodb mongodb 2.0G 2012-10-03 11:32 xxx_letters.5
-rw------- 1 mongodb mongodb  16M 2012-10-26 19:56 xxx_letters.ns

这是free -tm

的输出
             total       used       free     shared    buffers     cached
Mem:          3836       3804         31          0         65       2722
-/+ buffers/cache:       1016       2819
Swap:         4094        513       3581
Total:        7930       4317       3612

是否真的有必要拥有足够的系统内存以便最大的数据文件适合?为什么增长文件那么多? (从上面显示的序列,我希望下一个文件是4GB。)我将尝试扩展RAM,但数据最终会增长更多。或许这根本不是记忆问题?

我有一个64位Linux系统并使用64位MongoDB 2.0.7-rc1。磁盘空间充足,CPU负载为0.0。这是uname -a

Linux xxx 2.6.32.54-0.3-default #1 SMP 2012-01-27 17:38:56 +0100 x86_64 x86_64 x86_64 GNU/Linux

1 个答案:

答案 0 :(得分:10)

ulimit -a解开了这个谜团:

core file size (blocks, -c) 1
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 30619
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) 3338968
open files (-n) 1024
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 30619
virtual memory (kbytes, -v) 6496960
file locks (-x) unlimited

在将最大内存大小和虚拟内存设置为无限并重新启动所有内容后,它工作正常。顺便说一句,下一个文件又有2GB。

很抱歉打扰你,但我很绝望。也许这有助于某人"谷歌搜索"有类似的问题。