运行curl -XPOST node1:9200/_cache/clear
我预计每个节点都会有大量缓存消失。
但是在查看bigdesk时,缓存大小似乎并没有下降。
不应该下降很多??
这个问题的主要问题是每个节点通常都有非常高的缓存大小,这就是下面例外的原因:
ElasticsearchException[org.elasticsearch.common.breaker.CircuitBreakingException: Data too large, data for field [ts] would be larger than limit of [24108466176/22.4gb]]
另一件事是我一般都没有看到任何缓存驱逐(不仅仅是在clear_cache之后),在设置中没有设置缓存驱逐的属性(可能有些应该设置?)。唯一的属性集是fielddata.breaker.limit: 75%
如何在elasticseach中处理更好的缓存?
ElasticSearch版本:1.3.5