如何确定我的elasticsearch服务器的内存要求

时间:2017-05-17 21:05:06

标签: elasticsearch memory filesystems redhat

我有一个场景,

具有大约1.4 TB数据的elasticsearch DB,

 _shards": {
     "total": 202,
     "successful": 101,
     "failed": 0
}

每个索引大小大约介于3 GB到30 GB之间,并且在不久的将来,预计每天会有30GB的文件大小。

操作系统信息:

 NAME="Red Hat Enterprise Linux Server"
 VERSION="7.2 (Maipo)"
 ID="rhel"
 ID_LIKE="fedora"
 VERSION_ID="7.2"
 PRETTY_NAME="Red Hat Enterprise Linux Server 7.2 (Maipo)"

系统有32 GB的RAM,文件系统是2TB(1.4TB已使用)。我为elasticsearch服务器配置了最多15 GB。 但这还不足以让我查询这个数据库。服务器挂起以在服务器上发出单个查询。

我将在此服务器的文件系统中包含1TB,以便总可用文件系统大小为3TB。 我还计划将内存增加到128GB,这是一个近似估计。

有人可以帮我计算如何确定服务器同时响应至少50个请求所需的最小RAM吗?

如果您可以建议任何工具/配方来分析此要求,将不胜感激。如果你能给我任何其他的数字场景,这样我就可以用它来确定我的资源需求。

2 个答案:

答案 0 :(得分:1)

您需要使用多个节点进行扩展以保持高效。 Elasticsearch的每节点内存最佳位置为64GB,为ES保留了32GB。

https://www.elastic.co/guide/en/elasticsearch/guide/current/hardware.html#_memory了解更多详情。如果你使用Elasticsearch来处理严肃的事情,这本书是一本非常好的读物

答案 1 :(得分:0)

相关问题