我在我的电脑上设置了SOLR索引,一切正常。
我对SOLR没有经验,但在对“start.jar”过程进行了一段时间的分析之后,我注意到RAM消耗量大幅增加,从150MB到400MB。这仅适用于10K文档!
作为回应,我编写了一个脚本,等待SOLR超过我的RAM消耗限制(在共享主机上),当它执行时,它会终止start.jar并重新启动它。
这有不良影响吗?如果是这样,除了获得更多内存或使用基于云的SOLR(也需要花钱)之外,还有哪些更好的解决方案?对不起,如果这听起来很愚蠢,但我只需要一个有效的解决方案。
谢谢。
答案 0 :(得分:0)
您需要提供一些索引统计信息:
您的索引有多大(以MB / GB为单位的文档和大小)?
索引/存储了多少个字段?
为JVM分配了多少内存?
你经常/实时优化/提交吗?
您在日志中看到的SOLR查询时间是多少?
最佳