Scrapy根据css属性从网页解析html字符串

时间:2017-05-06 02:15:26

标签: python css scrapy centos6.5

我正在尝试根据CSS属性在网页上提取特定网址。我可以拉第一个,但是我在添加完整的URL或获得超过1个URL时遇到了困难。

我尝试过使用joinurl或parse遇到很多问题。我一直在使用joinurl获得全局错误。

有更简单的方法吗?


我正在使用Centos 6.5& Python 2.7.5

以下代码将提供第一个网址,但不提供http://www...inline

import scrapy

class PdgaSpider(scrapy.Spider):
name = "pdgavideos"  # Name of the Spider, required value

start_urls = ["http://www.pdga.com/videos/"]

# Entry point for the spiders
def parse(self, response):
    SET_SELECTOR = 'tbody'
    for brickset in response.css(SET_SELECTOR):

        HTML_SELECTOR = 'td.views-field.views-field-title a ::attr(href)'
        yield {
            'http://www.pdga.com': brickset.css(HTML_SELECTOR).extract()[0]
        }

当前输出

http://www.pdga.com
/视频/ 2017玻璃吹开-FPO-RD-2-PT-2-皮尔斯fajkus-莱瑟曼-C-的Allen-司事-莱瑟曼

预期输出

完整的网址列表没有任何中断

我没有足够的声望点来发布几个例子

2 个答案:

答案 0 :(得分:1)

你的代码返回一个字典,这就是为什么它是break:

{'http://www.pdga.com': u'/videos/2017-glass-blown-open-fpo-rd-2-pt-2-pierce-fajkus-leatherman-c-allen-sexton-leatherman'}

你能做的就是让这个字典的收益如下:

yield {
    'href_link':'http://www.pdga.com'+brickset.css(HTML_SELECTOR).extract()[0]
}

这将为您提供一个新的字典,其值为no break href。

{'href_link': u'http://www.pdga.com/videos/2017-glass-blown-open-fpo-rd-2-pt-2-pierce-fajkus-leatherman-c-allen-sexton-leatherman'}

注意:Spider必须返回Request,BaseItem,dict或None,请参阅parse function

答案 1 :(得分:1)

为了从相对链接获取绝对网址,您可以使用Scrapy urljoin()方法并重写您的代码:

import scrapy

class PdgaSpider(scrapy.Spider):
    name = "pdgavideos"
    start_urls = ["http://www.pdga.com/videos/"]

    def parse(self, response):
        for link in response.xpath('//td[2]/a/@href').extract():
            yield scrapy.Request(response.urljoin(link), callback=self.parse_page)

        # If page contains link to next page extract link and parse
        next_page = response.xpath('//a[contains(., "next")]/@href').extract_first()
        if next_page:
            yield scrapy.Request(response.urljoin(next_page), callback=self.parse)

    def parse_page(self, response):
        link = response.xpath('//iframe/@src').extract_first()
        yield{
            'you_tube_link': 'http:' + link.split('?')[0]
        }

# To save links in csv format print in console: scrapy crawl pdgavideos -o links.csv
# http://www.youtube.com/embed/tYBF-BaqVJ8
# http://www.youtube.com/embed/_H0hBBc1Azg
# http://www.youtube.com/embed/HRbKFRCqCos
# http://www.youtube.com/embed/yz3D1sXQkKk
# http://www.youtube.com/embed/W7kuKe2aQ_c