我完全迷失在这里。我正在实施一个scrapy项目,其中项目由不同页面上的值组成。这就是我所拥有的:
self.logger.debug("Bilanz URL %s", item['bilanz_url'])
return Request(url=item['bilanz_url'],
callback=self.parse_estimations,
errback=self.error_handler,
dont_filter=True,
meta = {'item': dict(item)})
def parse_estimations(self, response):
self.logger.info("Function parse_estimations %s", response.url)
item = response.meta['item']
item['raw_estimations'] = response.xpath("//td[starts-with(text(), 'KGV')]/ancestor::table").extract_first()
yield item
现在问题是永远不会到达函数parse_estimations
,也不会调用errback处理程序。我也可以yield
同样的效果
我错过了一些明显的东西吗?
其他信息:启用了这些扩展和中间件:
[scrapy] INFO: Enabled extensions: CloseSpider, TelnetConsole, LogStats, CoreStats, SpiderState
[scrapy] INFO: Enabled downloader middlewares: HttpAuthMiddleware, DownloadTimeoutMiddleware, UserAgentMiddleware, RetryMiddleware, DefaultHeadersMiddleware, MetaRefreshMiddleware, HttpCompressionMiddleware, RedirectMiddleware, CookiesMiddleware, ChunkedTransferMiddleware, DownloaderStats