即使在他们的文档上给出的教程上也会出现Scrapy错误

时间:2012-06-25 13:43:28

标签: python scrapy

我在第一个例子中复制了scrapy给出的确切代码,但似乎没有用。我做了很多论坛搜索,我看到很多人都得到同样的错误。我倾向于认为这可能是因为安装可能不对。想知道你们中是否有人可以帮助查看日志。

这是Scrapy提供的基本教程示例。 Tutorial URL

命令行

  

D:\ tutorial \ tutorial \ spiders> scrapy crawl dmoz_spider.py 2012-06-25   18:50:55 + 0530 [scrapy]信息:Scrapy 0.14.4开始(机器人:教程)   2012-06-25 18:50:55 + 0530 [scrapy] DEBUG:启用扩展:LogStats,   TelnetConsole,CloseSpider,WebService,CoreStats,SpiderState   2012-06-25 18:50:56 + 0530 [scrapy] DEBUG:启用下载器   中间件:HttpAuthMiddleware,DownloadTimeoutMid dleware,   UserAgentMiddleware,RetryMiddleware,DefaultHeadersMiddleware,   RedirectMiddleware,CookiesMiddleware,HttpProxyMiddleware,   HttpCompressionMiddleware,ChunkedTransferMiddleware,DownloaderStats   2012-06-25 18:50:56 + 0530 [scrapy] DEBUG:启用蜘蛛中间件:   HttpErrorMiddleware,OffsiteMiddleware,Re fererMiddleware,   UrlLengthMiddleware,DepthMiddleware 2012-06-25 18:50:56 + 0530 [scrapy]   DEBUG:启用项目管道:Traceback(最近一次调用最后一次):
  文件“C:\ Python27 \ Scripts \ scrapy”,第5行,in   pkg_resources.run_script('scrapy == 0.14.4','scrapy')文件   “C:\ Python27 \ lib \ site-packages \ pkg_resources.py”,第489行,in   run_script self.require(requires)[0] .run_script(script_name,ns)
  文件“C:\ Python27 \ lib \ site-packages \ pkg_resources.py”,第1207行,in   run_script execfile(script_filename,namespace,namespace)文件   “C:\ python27 \ LIB \站点包\ scrapy-0.14.4-py2.7.egg \ EGG-INFO \脚本\ scrapy”   第4行,在execute()文件中   “C:\ Python27 \ LIB \站点包\ scrapy-0.14.4-py2.7.egg \ scrapy \ cmdline.py”   第132行,执行_run_print_help(解析器,_run_command,cmd,args,   选择)文件   “C:\ Python27 \ LIB \站点包\ scrapy-0.14.4-py2.7.egg \ scrapy \ cmdline.py”   第97行,在_run_print_help func(* a,** kw)文件中   “C:\ Python27 \ LIB \站点包\ scrapy-0.14.4-py2.7.egg \ scrapy \ cmdline.py”   第139行,在_run_command cmd.run(args,opts)文件中   “C:\ Python27 \ LIB \站点包\ scrapy-0.14.4-py2.7.egg \ scrapy \命令\ crawl.py”   第43行,在run spider =中   self.crawler.spiders.create(spname,* opts.spargs)文件   “C:\ Python27 \ LIB \站点包\ scrapy-0.14.4-py2.7.egg \ scrapy \ spidermanager.py”   第43行,在create raise KeyError(“未找到蜘蛛:%s”%   spider_name)

KeyError:'未找到蜘蛛:dmoz_spider.py'

1 个答案:

答案 0 :(得分:4)

您不能通过调用dmoz_spider.py中的蜘蛛模块名称来启动它。你用你给蜘蛛的名字开始它。

在这种情况下,如果您完全遵循教程,那将是:

scrapy crawl dmoz