This是我正在抓取的网站的站点地图URL。我希望我的Spider能够从 / property 开头的页面中抓取数据。
问题是,当发送不带标题的请求时,这些页面没有向我显示正确的响应。该请求需要一个用户代理标头。
我提出了这样的解决方案。首先,以parse
方法抓取以 / property 开头的网址,该方法将获得一个空响应。 parse
方法将相同的请求与标头一起发送,而正确的响应将通过parse_items
方法进行爬网。
parse_items
方法永远不会被调用,shell进程也不会启动。我不明白为什么未达到parse_items
。有没有办法定义类似start_requests
的方法,因此我可以覆盖parse
类的SitemapSpider
方法的行为。
class MySpider(SitemapSpider):
name = 'myspider'
sitemap_urls = [
'https://www.iproperty.com.my/sitemap_index.xml',
]
sitemap_rules = [
('/property', 'parse'),
]
headers = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'
}
def parse(self, response):
yield scrapy.Request(
url=response.url,
method='GET',
headers=self.headers,
callback=self.parse_items
)
def parse_items(self, response):
from scrapy.shell import inspect_response
inspect_response(response, self)
答案 0 :(得分:2)
根据SitemapSpider
source code (v 1.6),它不会像回调函数parse
那样调用Spider
作为回调:
def start_requests(self):
for url in self.sitemap_urls:
yield Request(url, self._parse_sitemap)
如您所见,它没有添加任何特定的标题。
您需要观察SitemapSpider
源代码并覆盖其中的某些方法。
我注意到另一件事。我不记得蜘蛛具有headers
的价值。
您是说DEFAULT_REQUEST_HEADERS
设置吗?:
class MySpider(SitemapSpider):
name = 'myspider'
sitemap_urls = [
'https://www.iproperty.com.my/sitemap_index.xml',
]
sitemap_rules = [
('/property', 'parse'),
]
CUSTOM_SETTINGS = {
DEFAULT_REQUEST_HEADERS : {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'
}}
....
答案 1 :(得分:1)
您可以使用here设置,可以使用DEFAULT_REQUEST_HEADERS
class属性在蜘蛛本身上进行设置。
如果这对于您来说不够灵活,请使用custom_settings
替代SitemapSpider
或基于它重写从头开始编写蜘蛛。
答案 2 :(得分:0)
实现相同的方法略有不同吗?如果您尝试在scrapy中使用BeautifulSoup
,那么输出将是您期望的。也许是解析器负责获取响应。
from bs4 import BeautifulSoup
import scrapy
class SitMapSpider(scrapy.Spider):
name = 'sitemap'
start_urls = ['https://www.iproperty.com.my/sitemap_index.xml']
def start_requests(self):
for url in self.start_urls:
yield scrapy.Request(url, self.parse)
def parse(self,response):
soup = BeautifulSoup(response.text, 'xml')
for item in soup.select('sitemap > loc'):
yield scrapy.Request(item.text,self.parse_more_links)
def parse_more_links(self,response):
soup = BeautifulSoup(response.text, 'xml')
for item in soup.select('url > loc'):
if not "/property" in item.text:continue
yield {"item": item.text}