我有一个易读的代码,其结构类似于
我希望scrapy以dfs顺序对页面进行爬网,即所有3个链接首先由2个链接,然后是1个。但是scrapy不会以这种方式爬网。我尝试了所有方法来实现这一目标,但无法获得解决方案。有人可以建议我完成这项工作的正确方法
例如:
def parse(self, response):
print "url1"
yield scrapy.Request(url, callback=self.parse2)
def parse2(self, response):
print "url2"
yield scrapy.Request(url, callback=self.parse3)
def parse3(self, response):
print "url3"
# Do something
Output should be something like
url1
url2
url3
....
....
....
url2
url3
....
....
url2
url3
....
....
url1
在此先感谢您的帮助。