来自" crawler"的Solr复制数据核心进入"搜索"核心

时间:2014-08-25 19:09:44

标签: solr solr4

我们希望有一个Solr 4.9设置,我们有一个非常简单的爬虫擦除并加载一个"爬虫"然后核心触发数据的副本到"搜索"爬网完成时的核心。这样做的目的是我们的爬虫非常简单,并且不会以有助于进行更新和删除的方式真正跟踪文档。基本上,爬虫将消灭整个"爬虫"核心,翻录大约50k文件(提交1000左右),然后触发一些东西将数据复制到另一个"搜索"芯

假设我们必须重新启动搜索核心,如何通过命令行或代码实现这一目标?

1 个答案:

答案 0 :(得分:1)

Create a third core作为search核心的副本。然后use the mergeindexes command in CoreAdmin将两个不同的核心合并到第三个核心。合并完成后,swap the the third core使用旧的search核心。如果您觉得可以永久删除旧数据,请UNLOAD the swapped out coredeleteInstanceDir=true {。}}。

类似的东西:

http://localhost:8983/solr/admin/cores/action=CREATE&name=core0&instanceDir=path_to_instance_directory&config=config_file_name.xml&schema=schema_file_name.xml&dataDir=data

http://localhost:8983/solr/admin/cores?action=mergeindexes&core=core0&indexDir=/opt/solr/crawl/data/index&indexDir=/opt/solr/index/data/index

http://localhost:8983/solr/admin/cores?action=SWAP&core=search&other=core0

http://localhost:8983/solr/admin/cores?action=UNLOAD&core=core0