我正在尝试使用scrapy解析sitemap.xml
个文件,站点地图文件就像下面那个只有url
个节点的文件。
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"
xmlns:video="http://www.sitemaps.org/schemas/sitemap-video/1.1">
<url>
<loc>
http://www.site.com/page.html
</loc>
<video:video>
<video:thumbnail_loc>
http://www.site.com/thumb.jpg
</video:thumbnail_loc>
<video:content_loc>http://www.example.com/video123.flv</video:content_loc>
<video:player_loc allow_embed="yes" autoplay="ap=1">
http://www.example.com/videoplayer.swf?video=123
</video:player_loc>
<video:title>here is the page title</video:title>
<video:description>and an awesome description</video:description>
<video:duration>302</video:duration>
<video:publication_date>2011-02-24T02:03:43+02:00</video:publication_date>
<video:tag>w00t</video:tag>
<video:tag>awesome</video:tag>
<video:tag>omgwtfbbq</video:tag>
<video:tag>kthxby</video:tag>
</video:video>
</url>
</urlset>
我查看了相关的scrapy's documentation,然后我编写了以下片段,看看我是否采取了正确的方式(而且似乎我没有^^):
class SitemapSpider(XMLFeedSpider):
name = "sitemap"
namespaces = [
('', 'http://www.sitemaps.org/schemas/sitemap/0.9'),
('video', 'http://www.sitemaps.org/schemas/sitemap-video/1.1'),
]
start_urls = ["http://example.com/sitemap.xml"]
itertag = 'url'
def parse_node(self, response, node):
print "Parsing: %s" % str(node)
但是当我运行蜘蛛时,我收到了这个错误:
File "/.../python2.7/site-packages/scrapy/utils/iterators.py", line 32, in xmliter
yield XmlXPathSelector(text=nodetext).select('//' + nodename)[0]
exceptions.IndexError: list index out of range
我认为我没有正确定义“默认”命名空间(http://www.sitemaps.org/schemas/sitemap/0.9),但我找不到如何执行此操作。
迭代url
个节点然后能够从其子节点中提取所需的信息的正确方法是什么?
解答:
不幸的是,我无法使用XMLFeedSpider
(这应该是用scrapy
解析XML的方法),但是由于simplebias的答案,我已经能够一种实现这种“老派方式”的方法。我想出了以下代码(这次是有效的!):
class SitemapSpider(BaseSpider):
name = 'sitemap'
namespaces = {
'sitemap': 'http://www.sitemaps.org/schemas/sitemap/0.9',
'video': 'http://www.sitemaps.org/schemas/sitemap-video/1.1',
}
def parse(self, response):
xxs = XmlXPathSelector(response)
for namespace, schema in self.namespaces.iteritems():
xxs.register_namespace(namespace, schema)
for urlnode in xxs.select('//sitemap:url'):
extract_datas_here()
答案 0 :(得分:4)
Scrapy在底层使用 lxml / libxml2 ,最终调用node.xpath()
方法来执行选择。 xpath表达式中任何名称空间的元素都必须加前缀,并且必须传递一个映射来告诉选择器每个前缀解析的命名空间。
这是一个示例,用于说明在使用node.xpath()
方法时如何将前缀映射到名称空间:
doc = '<root xmlns="chaos"><bar /></root>'
tree = lxml.etree.fromstring(doc)
tree.xpath('//bar')
[]
tree.xpath('//x:bar', namespaces={'x': 'chaos'})
[<Element {chaos}bar at 7fa40f9c50a8>]
如果没有使用这个scrapy XMLFeedSpider类,我猜你的命名空间映射和itertag需要遵循相同的方案:
class SitemapSpider(XMLFeedSpider):
namespaces = [
('sm', 'http://www.sitemaps.org/schemas/sitemap/0.9'),
]
itertag = 'sm:url'
答案 1 :(得分:1)
我发现hxs和xxs之间的区别很有帮助。我发现很难找到xxs对象。我试图用这个
x = XmlXPathSelector(response)
当这些对我需要的东西更好的时候。
hxs.select('//p/text()').extract()
或
xxs.select('//title/text()').extract()