Elasticseach卡在213个文档中并丢失了数据

时间:2018-10-03 14:18:00

标签: json elasticsearch kibana

我有一个带有1个节点的elasticsearch设置,没有副本节点与数字海洋中的Kibana设置共享一个液滴。我的Droplet具有2GB内存和足够的CPU。我的Elasticsearch JVM设置为使用768MB RAM(因此,kibana可以共享它)。

我的问题是,由于节点卡在213个文档上,我似乎正在丢失数据,而且我已经注意到一些重要的文档已经消失了。

我找不到有关此工作原理的文档。我唯一发现的是,在处理大量数据时,使用更多的ram会更好,并且有一个辅助节点来存储副本是一个好习惯。

我应该分配更多的公羊吗?我怎么知道我的数据是否被删除以分配更多?这是某种分页吗?这可以是基巴纳人的问题吗?

1 个答案:

答案 0 :(得分:0)

我解决了。问题是我的ID代。我是手动生成ID,而不是永久存储最后生成的ID。系统重新启动后,标识将丢失,并且弹性搜索允许覆盖标识。