如何从抓取的网址中抓取元素?刮痧

时间:2021-04-11 16:33:03

标签: python web-scraping scrapy

好吧,假设我有一个网站列出了工作机会,并且有多个页面(动态的,这就是我使用硒的原因)。我想做什么:

  1. 抓取多个页面上的每个职位发布网址,
  2. 从每个 URL 中抓取几个项目(标题、本地化等)

class JobScraper(scrapy.Spider):
    name = "jobscraper"
    allowed_domains = ['pracuj.pl']
    total = 10
    start_urls = [
        'https://www.pracuj.pl/praca/it%20-%20rozw%c3%b3j%20oprogramowania;cc,5016/%c5%82%c3%b3dzkie;r,5?rd=10&pn={}'.format(i)
        for i in range(1, total)
    ]
    custom_settings = {
        'LOG_LEVEL': 'INFO',
    }

    def __init__(self):
        self.options = webdriver.ChromeOptions()
        self.options.headless = True
        self.driver = webdriver.Chrome(r'C:\Users\kacpe\OneDrive\Pulpit\Python\Projekty\chromedriver.exe',
                                       options=self.options)

    def parse(self, response):
        self.driver.get(response.url)
        res = response.replace(body=self.driver.page_source)

        offers = res.xpath('//li[contains(@class, "results__list-container")]')
         for offer in offers:
            link = offer.xpath('.//a[@class="offer-details__title-link"]/@href').extract()
            yield Request(link, callback=self.parse_page)

    def parse_page(self, response):
        title = response.xpath('//h1[@data-scroll-id="job-title"]/text()').extract()
        yield {
            'job_title': title
        }

它不起作用,发生了错误:

<块引用>

TypeError: 请求 url 必须是 str 或 unicode,得到列表

2 个答案:

答案 0 :(得分:2)

您在此行中调用 extract

link = offer.xpath('.//a[@class="offer-details__title-link"]/@href').extract()

Extract 返回一个元素列表,这就是当您尝试将 link 传递给 Request 时出现错误的原因。

根据您想要做什么,您可以对每个结果执行 for link in linksRequest,或者使用 xpath 获得特定的 find_elements_by_xpath

答案 1 :(得分:2)

您不需要硒来抓取所需的内容。事实证明,您希望从该站点获取的项目位于某个脚本标记内。一旦您使用正则表达式挖出该部分并使用 json 库处理它,您应该很容易访问它们。以下是我的意思:

import json
import scrapy

class JobScraper(scrapy.Spider):
    name = "jobscraper"
    total = 10
    start_urls = [
        'https://www.pracuj.pl/praca/it%20-%20rozw%c3%b3j%20oprogramowania;cc,5016/%c5%82%c3%b3dzkie;r,5?rd=10&pn={}'.format(i)
        for i in range(1, total)
    ]

    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.114 Safari/537.36'
    }
    def start_requests(self):
        for start_url in self.start_urls:
            yield scrapy.Request(start_url,callback=self.parse,headers=self.headers)

    def parse(self, response):
        items = response.css("script:contains('window.__INITIAL_STATE__')::text").re_first(r"window\.__INITIAL_STATE__ =(.*);")
        for item in json.loads(items)['offers']:
            yield {
                "title":item['jobTitle'],
                "employer":item['employer'],
                "country":item['countryName'],
                "details_page":item['companyProfileUrl']
            }