我在第一个例子中复制了scrapy给出的确切代码,但似乎没有用。我做了很多论坛搜索,我看到很多人都得到同样的错误。我倾向于认为这可能是因为安装可能不对。想知道你们中是否有人可以帮助查看日志。
这是Scrapy提供的基本教程示例。 Tutorial URL
命令行
D:\ tutorial \ tutorial \ spiders> scrapy crawl dmoz_spider.py 2012-06-25 18:50:55 + 0530 [scrapy]信息:Scrapy 0.14.4开始(机器人:教程) 2012-06-25 18:50:55 + 0530 [scrapy] DEBUG:启用扩展:LogStats, TelnetConsole,CloseSpider,WebService,CoreStats,SpiderState 2012-06-25 18:50:56 + 0530 [scrapy] DEBUG:启用下载器 中间件:HttpAuthMiddleware,DownloadTimeoutMid dleware, UserAgentMiddleware,RetryMiddleware,DefaultHeadersMiddleware, RedirectMiddleware,CookiesMiddleware,HttpProxyMiddleware, HttpCompressionMiddleware,ChunkedTransferMiddleware,DownloaderStats 2012-06-25 18:50:56 + 0530 [scrapy] DEBUG:启用蜘蛛中间件: HttpErrorMiddleware,OffsiteMiddleware,Re fererMiddleware, UrlLengthMiddleware,DepthMiddleware 2012-06-25 18:50:56 + 0530 [scrapy] DEBUG:启用项目管道:Traceback(最近一次调用最后一次):
文件“C:\ Python27 \ Scripts \ scrapy”,第5行,in pkg_resources.run_script('scrapy == 0.14.4','scrapy')文件 “C:\ Python27 \ lib \ site-packages \ pkg_resources.py”,第489行,in run_script self.require(requires)[0] .run_script(script_name,ns)
文件“C:\ Python27 \ lib \ site-packages \ pkg_resources.py”,第1207行,in run_script execfile(script_filename,namespace,namespace)文件 “C:\ python27 \ LIB \站点包\ scrapy-0.14.4-py2.7.egg \ EGG-INFO \脚本\ scrapy” 第4行,在execute()文件中 “C:\ Python27 \ LIB \站点包\ scrapy-0.14.4-py2.7.egg \ scrapy \ cmdline.py” 第132行,执行_run_print_help(解析器,_run_command,cmd,args, 选择)文件 “C:\ Python27 \ LIB \站点包\ scrapy-0.14.4-py2.7.egg \ scrapy \ cmdline.py” 第97行,在_run_print_help func(* a,** kw)文件中 “C:\ Python27 \ LIB \站点包\ scrapy-0.14.4-py2.7.egg \ scrapy \ cmdline.py” 第139行,在_run_command cmd.run(args,opts)文件中 “C:\ Python27 \ LIB \站点包\ scrapy-0.14.4-py2.7.egg \ scrapy \命令\ crawl.py” 第43行,在run spider =中 self.crawler.spiders.create(spname,* opts.spargs)文件 “C:\ Python27 \ LIB \站点包\ scrapy-0.14.4-py2.7.egg \ scrapy \ spidermanager.py” 第43行,在create raise KeyError(“未找到蜘蛛:%s”% spider_name)
KeyError:'未找到蜘蛛:dmoz_spider.py'
答案 0 :(得分:4)
您不能通过调用dmoz_spider.py中的蜘蛛模块名称来启动它。你用你给蜘蛛的名字开始它。
在这种情况下,如果您完全遵循教程,那将是:
scrapy crawl dmoz