ceph发光的osd内存使用量,每盘7,每盘8tb

时间:2018-06-09 09:48:42

标签: centos7 ceph tmpfs

我正在尝试在单个盒子上构建小型CEPH集群 - 在实验室中进行测试,然后再将更大的项目切换到它。遇到内存问题,无法找到控制它的方法。

我们有旧的Core2Duo CPU,4gb内存。使用3个本地8tb磁盘创建3个OSD。

ceph-deploy将使它和一切运行良好,发现对于3个OSD中的每一个1 tmpfs分区正在创建,这是2gb并且在将〜50gb数据复制到CephFS Bluestore之后 - 框开始使用RAM激烈地开始并最终使用所有交换。我找不到正确的控制设置,允许使用多少RAM OSD进程。

可以使用更多IO而不是RAM。寻求帮助(如果可能的话)。 :)我正在Centos 7上构建一切。

安东。

0 个答案:

没有答案