下载Apache Solr时发现错误

时间:2017-07-22 16:48:28

标签: apache-spark solr web-crawler

我试图在Apache Spark上使用Sparkler:Crawler。我从此链接中的要求开始:https://github.com/uscdataScience/sparkler/wiki/sparkler-0.1#requirements 第一步是下载Apache Solr。所以,当我使用这个命令时:

cp -rv ${SPARKLER_GIT_SOURCE_PATH}/conf/solr/crawldb server/solr/configsets/

显示此错误:    cp: cannot stat ‘/conf/solr/crawldb’: No such file or directory

我该如何解决?知道在下载Solr时,没有这样的抓取文件。

0 个答案:

没有答案