我们希望有一个Solr 4.9设置,我们有一个非常简单的爬虫擦除并加载一个"爬虫"然后核心触发数据的副本到"搜索"爬网完成时的核心。这样做的目的是我们的爬虫非常简单,并且不会以有助于进行更新和删除的方式真正跟踪文档。基本上,爬虫将消灭整个"爬虫"核心,翻录大约50k文件(提交1000左右),然后触发一些东西将数据复制到另一个"搜索"芯
假设我们必须重新启动搜索核心,如何通过命令行或代码实现这一目标?
答案 0 :(得分:1)
Create a third core作为search
核心的副本。然后use the mergeindexes
command in CoreAdmin将两个不同的核心合并到第三个核心。合并完成后,swap the the third core使用旧的search
核心。如果您觉得可以永久删除旧数据,请UNLOAD the swapped out core(deleteInstanceDir=true
{。}}。
类似的东西:
http://localhost:8983/solr/admin/cores/action=CREATE&name=core0&instanceDir=path_to_instance_directory&config=config_file_name.xml&schema=schema_file_name.xml&dataDir=data
http://localhost:8983/solr/admin/cores?action=mergeindexes&core=core0&indexDir=/opt/solr/crawl/data/index&indexDir=/opt/solr/index/data/index
http://localhost:8983/solr/admin/cores?action=SWAP&core=search&other=core0
http://localhost:8983/solr/admin/cores?action=UNLOAD&core=core0