我使用SolrJ将数据发送到我的Solr服务器。 当我启动我的程序时,它以每秒大约1000个文档的速度对内容进行索引(我每250,000个文档提交一次)
我注意到当我的索引填满了大约500万个文档时,它会开始抓取,而不仅仅是在提交时,也会增加时间。
我的Solr服务器和索引程序在同一台机器上运行
以下是我的solrconfig中的一些相关部分:
<useCompoundFile>false</useCompoundFile> <ramBufferSizeMB>1024</ramBufferSizeMB> <mergeFactor>150</mergeFactor>
有关如何解决此问题的任何建议吗?
答案 0 :(得分:1)
合并因素看起来真的,真的(真的)很高。
你真的想要吗?
如果你没有使用容易导致ulimit问题的复合文件(如果你是linux)。