如何使用Scrapy

时间:2018-08-15 15:42:14

标签: python xpath web-scraping scrapy

这里是对网站中“查看更多”按钮的检查。我可以抓取网站中显示的数据,但我希望它可以抓取“查看更多”按钮后面隐藏的项目。我怎么做?

 <div id="view-more" class="p20px pt10px">
                        <div id="view-more-loader" class="tac"></div>

                        <a href="javascript:void(0);" onclick="add_more_product_classified();$('#load_more_a_id').hide();" class="xxxxlarge ffrc lightbginfo gbiwb bdr darkbdrinfo p10px20px db w180px m0a tac" id="load_more_a_id" style="display: block;"><b class="icon-refresh xsmall mr5px"></b>View More Products..</a>
                        </div>

我的拼写代码:

import scrapy




class DummymartSpider(scrapy.Spider):
    name = 'dummymart'
    allowed_domains = ['dummymart.net']
    start_urls =['https://www.dummymart.com/catalog/car-dvd-player_cid100001018.html']



    def parse(self, response):
            Product = response.xpath('//div[@class="attr"]/h2/a/@title').extract()
            Company =  response.xpath('//div[@class="supplier"]/p/a/@title').extract()
            Country =  response.xpath('//*[@class="location a-color-secondary"]/span/text()').extract()
            Category = response.xpath('//*[@class="attr category hide--mobile"]/span/a/text()').extract()

            for item in zip(Product,Company,Country,Category):
                scraped_info = {
                    'Product':item[0],
                    'Company': item[1],
                    'Country':item[2],
                    'Category':item[3]

                }
                yield scraped_info

1 个答案:

答案 0 :(得分:0)

解决此类问题的常用方法是:

  1. 在浏览器中启动开发者工具
  2. 转到网络面板,以便查看浏览器发出的请求;
  3. 点击页面中的“查看更多”按钮,并检查浏览器提取数据的请求;
  4. 对蜘蛛进行相同的请求。

This blog post可能会对您有所帮助。