我有一个非常基本的scrapy蜘蛛,它从文件中抓取url然后下载它们。唯一的问题是,其中一些被重定向到同一域内的略微修改的URL。我想使用 response.meta 在我的回调函数中获取它们,并且它适用于普通的URL,但是后来url被重定向回调似乎没有被调用。我该如何解决? 这是我的代码。
from scrapy.contrib.spiders import CrawlSpider
from scrapy import log
from scrapy import Request
class DmozSpider(CrawlSpider):
name = "dmoz"
handle_httpstatus_list = [302]
allowed_domains = ["http://www.exmaple.net/"])
f = open("C:\\python27\\1a.csv",'r')
url = 'http://www.exmaple.net/Query?indx='
start_urls = [url+row for row in f.readlines()]
def parse(self, response):
print response.meta.get('redirect_urls', [response.url])
print response.status
print (response.headers.get('Location'))
我也尝试过这样的事情:
def parse(self, response):
return Request(response.url, meta={'dont_redirect': True, 'handle_httpstatus_list': [302]}, callback=self.parse_my_url)
def parse_my_url(self, response):
print response.status
print (response.headers.get('Location'))
它也不起作用。
答案 0 :(得分:2)
默认情况下会重定向scrapy请求,但如果您不想重定向,则可以这样做,使用 start_requests 方法并在请求元数据中添加标记。
def start_requests(self):
requests =[(Request(self.url+u, meta={'handle_httpstatus_list': [302],
'dont_redirect': True},
callback=self.parse)) for u in self.start_urls]
return requests