美丽的汤在一个网站上返回空列表,但在另一个网站上工作

时间:2019-06-23 17:30:15

标签: python web-scraping beautifulsoup

我目前正在通过“使用Python自动化无聊的东西”来学习Python。 我现在正在做Web Scraping部分。

我编写了从一个网站获取产品价格的代码。但是,当我稍微修改一下代码以在另一个网站上无法正常工作时,Beautiful Soup会从CSS返回一个空列表。

这是我的工作代码。

import bs4, requests, re

def getPrice(productUrl):
    res = requests.get(productUrl)
    res.raise_for_status()

    soup = bs4.BeautifulSoup(res.text, 'html.parser')

    # Go through CSS and get price
    source = soup.select('#product_addtocart_form > div.product-shop > div.details-info')
    element = source[0].text.strip()
    # Regex for getting the price from the rest of the CSS.
    pattern = re.compile(r"""R([1-9]\d*)(\.\d\d)?(?![\d.])""")

    # Get price from string using regex pattern
    trueprice = re.split(pattern, element)
    return("The product's price is : R " + trueprice[1])

product = "https://www.faithful-to-nature.co.za/green-home-paper-straws-in-compostable-bag"

weblink = getPrice(product)

print(weblink)

这是我对另一个无效网站的修改后代码。 我注释掉了一些代码,因为它在列表中没有数据时不起作用。

import bs4, requests, re

def getPrice(productUrl):
    res = requests.get(productUrl)
    res.raise_for_status() # Check for any errors in request

    soup = bs4.BeautifulSoup(res.text, 'html.parser')

    # Go through CSS and get price
    csssource = soup.select('#shopfront-app > div > div.grid-container.pdp-grid-container > div.grid-x.grid-margin-x > div > div > div > div > div.cell.medium-auto > div.pdp-core-module_actions_mdYzm > div.sf-buybox.pdp-core-module_buybox_q5wLs.buybox-module_buybox_eWK2S')
    #element = csssource[0].text.strip()

    # Regex for getting the price from the rest of the CSS.
    pattern = re.compile(r"""R([1-9]\d*)(\.\d\d)?(?![\d.])""")

    #trueprice = re.split(pattern, element)
    #return("The product's price is : R " + trueprice[1])

    print(csssource)

test1 = "https://www.takealot.com/lego-classic-basic-brick-set-11002/PLID53430493"


weblink = getPrice(test1)

print(weblink)

在两个站点上,我都使用Chrome上的inspect方法获得了CSS选择器。我尝试使用更宽的CSS选择器,但Beautiful Soup仍然返回一个空列表。

如何让Beautiful Soup返回正确的列表/ CSS选择器?

2 个答案:

答案 0 :(得分:2)

您好,我相信该网站提供的是动态内容,因此当我尝试仅使用请求/ b抓取信息时,您将需要使用硒,我也会得到空白列表。您可能可以使用原始的CSS选择标准,但是我选择了第5个出现的货币作为您尝试获得的价​​格。

下载正确的gecko驱动程序并在脚本中设置路径。

https://github.com/mozilla/geckodriver/releases

from bs4 import BeautifulSoup
from selenium import webdriver
import time

#self.driver = webdriver.Firefox(executable_path = 'D:\Selenium_RiponAlWasim\geckodriver-v0.18.0-win64\geckodriver.exe')

driver = webdriver.Firefox()
driver.get('https://www.takealot.com/lego-classic-basic-brick-set-11002/PLID53430493')
html = driver.page_source
soup = BeautifulSoup(html,'lxml')
i = 0
for span in soup.find_all('span',{'class' : 'currency'}):
    if(i == 4):
        print(span.text)
    i += 1
#driver.close()
#returns R 315

答案 1 :(得分:2)

如果您查看浏览器中发生的请求,您会注意到该站点通过调用https://api.takealot.com/rest/v-1-8-0/product-details/ {PRODUCT_ID}?platform = desktop(例如{{ 3}})。

因此,此站点而不是硒的另一个选择是自己调用API。

import requests

def getProductInfo(productId):
    productUrl = 'https://api.takealot.com/rest/v-1-8-0/product-details/{0}?platform=desktop'.format(productId)
    res = requests.get(productUrl, headers={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)'})
    res.raise_for_status() # Check for any errors in request
    return res.json()

product = getProductInfo("PLID53430493")
print(product['buybox']['pretty_price'])