抓取刮擦每个表数据

时间:2020-08-11 07:49:18

标签: python html web xpath scrapy

简介

在使用scrapy几周后,我仍然有一些问题需要弄清楚一些xpath表达式。 通常,我在提取表和“ ul and li”标签的数据时遇到很大的问题。

示例 我尝试获取以下数据的网页: https://www.karton.eu/460x310x160-mm-Postal-Shipping-Box

有一个名为的表:“ Productdata”,我需要每一行,但是我什么也没得到。 我尝试了类似的东西: response.xpath('//*[@id="2"]/tr/td/text()').getall()response.xpath('//table[@class="table table-striped"]/tr/td/text()').getall()

我的代码

# -*- coding: utf-8 -*-
import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from ..items import KartoneuItem
import csv

class KartoneuSpider(scrapy.Spider):
    name = "karton13"
    allowed_domains = ['karton.eu']
    with open("kartonsalllinks.csv","r") as f:
        reader = csv.DictReader(f)
        start_urls = [items['Link'] for items in reader]
    
    rules = (
        Rule(LinkExtractor(), callback='parse'),
    )

    def parse(self, response):
        card = response.xpath('//div[@class="product-info-inner"]')

        if not card:
            print('No productlink', response.url)

        for a in card:

            items = KartoneuItem()
            items['SKU'] = a.xpath('.//span[@class="art_nr"]/strong/text()').get()
            items['Title'] = a.xpath('.//h1[@class="fn product-title"]/text()').get()
            items['Link'] = a.url
            items['Price'] = a.xpath('.//div[@class="price_wrapper"]/strong/text()').get()
            items['Delivery_Status'] = a.xpath('.//div[@class="col-lg-4"]/span/text()').get()
            items['Desc'] = a.xpath('.//*[@id="1"]/p/text()').getall()
            items['Breadcrumb'] = a.xpath('.//*[@id="breadcrumb"]/li/a/@href').getall()
            yield items

我已经有一个.csv文件,其中包含域的每个链接,现在上面的代码应打开每个链接,检查其是否为产品链接(response.xpath('//div[@class="product-info-inner"]')没有该标签的页面应被跳过因为它们可以是例如类别链接。

2 个答案:

答案 0 :(得分:0)

您在XPATH选择器中错过了一个提示,我不确定您的项目字段是什么,等等...这里我只是将所有产品数据都保存在一个列表中,您可以操纵该列表,也可以使用XPATH选择器将数据分别放入单独的项目字段中。

代码示例

table_rows = response.xpath('//table[@class="table table-striped"]/tbody/tr/td/text()').getall() 
cleaned_table_rows = [a for a in table_rows if a != '\n']

输出

['internal dimensions:', '460 x 310 x 160 mm', 'external dimensions:', '515 x 335 x 170 mm', 'girth:', '122,5 cm', 'quality:', 'B-Welle 1.2', 'weight:', '0,48 kg', 'volume:', '22.82 l', 'pallet dimensions:', '1230 x 800 x 1880 mm', 'piece(s) per pallet:', '410', 'carbon neutral']

解释

您是XPATH选择器

response.xpath('//table[@class="table table-striped"]/tr/td/text()').getall()

应该在什么时候

response.xpath('//table[@class="table table-striped"]/tbody/tr/td/text()').getall() 

然后我使用列表理解来清理列表,因为变量table_rows有多个\n项。

答案 1 :(得分:0)

您可以使用:

直接输出键
 response.xpath('//table[@class="table table-striped"]//tr/td[1]/text()[normalize-space()]').getall()

输出:

['internal dimensions:',
 'external dimensions:',
 'girth:',
 'quality:',
 'weight:',
 'volume:',
 'pallet dimensions:',
 'piece(s) per pallet:',
 'carbon neutral']

对于值(请确​​保使用/td[2]//text()而不是/td[2]/text()):

response.xpath('//table[@class="table table-striped"]//tr/td[2]//text()').getall()

输出:

['460 x 310 x 160 mm',
 '515 x 335 x 170 mm',
 '122,5 cm',
 'B-Welle 1.2',
 '0,48 kg',
 '22.82 l',
 '1230 x 800 x 1880 mm',
 '410',
 'ClimatePartner ID printed']