我试图在Apache Spark上使用Sparkler:Crawler。我从此链接中的要求开始:https://github.com/uscdataScience/sparkler/wiki/sparkler-0.1#requirements 第一步是下载Apache Solr。所以,当我使用这个命令时:
cp -rv ${SPARKLER_GIT_SOURCE_PATH}/conf/solr/crawldb server/solr/configsets/
显示此错误:
cp: cannot stat ‘/conf/solr/crawldb’: No such file or directory
我该如何解决?知道在下载Solr时,没有这样的抓取文件。