抓取数据并与以 HTML 呈现的网页进行交互

时间:2021-03-07 05:36:15

标签: python python-3.x selenium beautifulsoup lxml

我正在尝试从 a FanGraphs webpage 中抓取一些数据并与页面本身进行交互。由于页面上有很多按钮和下拉菜单来缩小我的搜索结果,我需要能够在 HTML 中找到相应的元素。但是,当我尝试使用“经典”方法并使用 requestsurllib.requests 等模块时,包含我需要的数据的 HTML 部分没有出现。

HTML 代码段

这是 HTML 的一部分,其中包含我需要的元素。

<div id="root-season-grid">
    <div class="season-grid-wrapper">
        <div class="season-grid-title">Season Stat Grid</div>
            <div class="season-grid-controls">
                <div class="season-grid-controls-button-row">
                    <div class="fgButton button-green active isActive">Batting</div>
                    <div class="fgButton button-green">Pitching</div>
                    <div class="spacer-v-20"></div>
                    <div class="fgButton button-green active isActive">Normal</div>
                    <div class="fgButton button-green">Normal &amp; Changes</div>
                    <div class="fgButton button-green">Year-to-Year Changes</div>
                </div>
            </div>
        </div>
    </div>
</div>

完整的 CSS 路径:

html > body > div#wrapper > div#content > div#root-season-grid div.season-grid-wrapper > div.season-grid-controls > div.season-grid-controls-button-row

尝试

  1. requestsbs4
>>> res = requests.get("https://fangraphs.com/leaders/season-stat-grid")
>>> soup = bs4.BeautifulSoup4(res.text, features="lxml")
>>> soup.select("#root-season-grid")
[<div id="root-season-grid"></div>]
>>> soup.select(".season-grid-wrapper")
[]

因此 bs4 能够找到 <div id="root-season-grid"></div> 元素,但找不到该元素的任何后代。

  1. urlliblxml
>>> res = urllib.request.urlopen("https://fangraphs.com/leaders/season-stat-grid")
>>> parser = lxml.etree.HTMLParser()
>>> tree = lxml.etree.parse(res, parser)
>>> tree.xpath("//div[@id='root-season-grid']")
[<Element div at 0x131e1b3f8c0>]
>>> tree.xpath("//div[@class='season-grid-wrapper']")
[]

同样,没有找到 div 元素的后代,这次是 lxml

我开始怀疑是否应该使用不同的 URL 地址同时传递给 requests.get()urlopen(),因此我创建了一个 selenium 远程浏览器 browser,然后将 browser.current_url 传递给这两个函数。不幸的是,结果是相同的。

  1. selenium

确实注意到,使用 selenium.find_element_by_*selenium.find_elements_by_* 能够找到元素,所以我开始使用它。但是,这样做会占用大量内存,而且速度非常慢。

  1. seleniumbs4

由于 selenium.find_element_by_* 工作正常,我想出了一个非常笨拙的“解决方案”。我使用 "*" CSS 选择器选择了完整的 HTML,然后将其传递给 bs4.BeautifulSoup()

>>> browser = selenium.webdriver.Firefox()
>>> html_elem = browser.find_element_by_css_selector("*")
>>> html = html_elem.get_attribute("innerHTML")
>>> soup = bs4.BeautifulSoup(html, features="lxml")
>>> soup.select("#root-season-grid")
[<div id="root-season-grid"><div class="season-grid-wrapper">...</div></div>]
>>> soup.select(".season-grid-wrapper")
[<div class="season-grid-wrapper">...</div>]

所以最后一次尝试取得了一定的成功,因为我能够获得我需要的元素。然而,在为模块运行了一堆单元测试和一些集成测试之后,我意识到这是多么不一致。

问题

经过大量研究,我总结了尝试 (1) 和 (2) 不起作用以及尝试 (3) 不一致的原因是因为页面中的表格是由 JavaScript 呈现的,以及按钮和下拉菜单。这也解释了为什么当您点击查看页面源代码时上面的 HTML 不存在。看起来,当调用requests.get()urlopen()时,JavaScript并没有完全呈现,而bs4+selenium是否有效取决于JavaScript呈现的速度。是否有任何 Python 库可以返回 HTML 内容之前呈现 JavaScript?

希望这不是一个太长的问题。我试图在不牺牲清晰度的情况下尽可能地浓缩。

1 个答案:

答案 0 :(得分:1)

只需从 Selenium 获取 page_source 并将其传递给 bs4。

browser.get("https://fangraphs.com/leaders/season-stat-grid")
soup = bs4.BeautifulSoup(browser.page_source, features="lxml")
print(soup.select("#root-season-grid"))

我建议使用他们的 API https://www.fangraphs.com/api/leaders/season-grid/data?position=B&seasonStart=2011&seasonEnd=2019&stat=WAR&pastMinPt=400&curMinPt=0&mode=normal