使用BeautifulSoup从网页获取特定表格

时间:2017-06-16 22:42:25

标签: python beautifulsoup web-crawler

我想从http://www.dividend.com/dividend-stocks/的第3个表中获取数据。 这是代码,我需要一些帮助。

import requests
from bs4 import BeautifulSoup

url = "http://www.dividend.com/dividend-stocks/"
r = requests.get(url)
soup = BeautifulSoup(r.content, "html5lib")

# Skip first two tables
tables = soup.find("table")
tables = tables.find_next("table")
tables = tables.find_next("table")

row = ''
for td in tables.find_all("td"):
    if len(td.text.strip()) > 0:
        row = row + td.text.strip().replace('\n', ' ') +','
        # Handle last column in a row, remove extra comma and add new line
        if td.get('data-th') == 'Pay Date':
            row = row[:-1] + '\n'
print(row)
  1. 有没有更好的方法可以跳过这两张桌子?或者有一种简单的方法可以跳过美丽汤中的大块代码?如果是这样,我该如何定位呢?
  2. 不知何故,代码的输出顺序与网络上的输出顺序不同。网络上的表格如下所示:enter image description here
  3. 但代码输出如下:

    AAPL,Apple Inc.,1.76%,$143.39,$2.52,5/11,5/18
    GE,General Electric,3.32%,$28.91,$0.96,6/15,7/25
    XOM,Exxon Mobil,3.71%,$83.03,$3.08,5/10,6/9
    CVX,Chevron Corp,4.01%,$107.72,$4.32,5/17,6/12
    BP,BP PLC ADR,6.66%,$35.72,$2.38,5/10,6/23
    

    我做错了什么?谢谢你的帮助!

3 个答案:

答案 0 :(得分:2)

您可以使用选择器查找特定的表格:

tables = soup.select("table:nth-of-type(3)")

我不确定为什么您的搜索结果的顺序与网页上显示的顺序不同。

答案 1 :(得分:1)

尽管@Barmar的方法看起来更干净,但这是另一种使用soup.find_all并保存到JSON的替代方法(即使说明中没有这样做)。

import json

import requests
from bs4 import BeautifulSoup

url = 'http://www.dividend.com/dividend-stocks/'
r = requests.get(url)
r.raise_for_status()
soup = BeautifulSoup(r.content, 'lxml')
stocks = {}

# Skip first two tables and header row of target table
for tr in soup.find_all('table')[2].find_all('tr')[1:]:
    (stock_symbol, company_name, _, dividend_yield, current_price,
     annual_dividend, ex_dividend_date, pay_date) = [
        td.text.strip() for td in tr.find_all('td')]
    stocks[stock_symbol] = {
        'company_name': company_name,
        'dividend_yield': float(dividend_yield.rstrip('%')),
        'current_price': float(current_price.lstrip('$')),
        'annual_dividend': float(annual_dividend.lstrip('$')),
        'ex_dividend_date': ex_dividend_date,
        'pay_date': pay_date
    }

with open('stocks.json', 'w') as f:
    json.dump(stocks, f, indent=2)

答案 2 :(得分:1)

感谢@Barmar和@Delirious Lettuce发布解决方案和代码。 关于输出的顺序,我意识到每次刷新数据时,我都看到了输出顺序的数据,就像我拉出来的那样。然后我看到排序的数据。尝试了几种不同的方法,我能够使用Selenium webdriver来提取网络所呈现的数据。谢谢大家。

BPT,BP Prudhoe Bay Royalty Trust,21.12%,$20.80,$4.39,4/11,4/20
PER,Sandridge Permian Trust,18.06%,$2.88,$0.52,5/10,5/26
CHKR,Chesapeake Granite Wash Trust,16.75%,$2.40,$0.40,5/18,6/1
NAT,Nordic American Tankers,13.33%,$6.00,$0.80,5/18,6/8
WIN,Windstream Corp,13.22%,$4.54,$0.60,6/28,7/17
NYMT,New York Mortgage Trust Inc,12.14%,$6.59,$0.80,6/22,7/25
IEP,Icahn Enterprises L.P.,11.65%,$51.50,$6.00,5/11,6/14
FTR,Frontier Communications,11.51%,$1.39,$0.16,6/13,6/30