我正在写一个scrapy蜘蛛,我需要用splash来渲染一些响应。我的蜘蛛基于CrawlSpider。我需要渲染我的start_url响应来喂我的爬行蜘蛛。不幸的是,我的爬行蜘蛛在渲染第一个响应后停止了。知道出了什么问题吗?
class VideoSpider(CrawlSpider):
start_urls = ['https://juke.com/de/de/search?q=1+Mord+f%C3%BCr+2']
rules = (
Rule(LinkExtractor(allow=()), callback='parse_items',process_request = "use_splash",),
)
def use_splash(self, request):
request.meta['splash'] = {
'endpoint':'render.html',
'args':{
'wait':0.5,
}
}
return request
def start_requests(self):
for url in self.start_urls:
yield scrapy.Request(url, self.parse, meta={
'splash': {
'endpoint': 'render.html',
'args': {'wait': 0.5}
}
})
def parse_items(self, response):
data = response.body
print(data)
答案 0 :(得分:1)
使用SplashRequest代替scrapy.Request ...查看我的答案 CrawlSpider with Splash
答案 1 :(得分:0)
def use_splash(self, request):
request.meta['splash'] = {
'endpoint':'render.html',
'args':{
'wait':0.5,
}
}
return request
您应该将其修改为
def use_splash(self, request):
return SplashRequest(xxxxxx)
或者您可以重写此功能
def _build_request(self, rule, link):
r = Request(url=link.url, callback=self._response_downloaded)
r.meta.update(rule=rule, link_text=link.text)
return r
我不能保证它会工作。我也在看。