使用Python从网站中提取表格数据

时间:2018-11-14 07:20:07

标签: python regex beautifulsoup python-requests

我正在尝试获取与用户尝试访问的任何网站有关的信息。为了阻止任何恶意网站的访问,我需要诸如黑名单状态,IP地址,服务器位置等详细信息。我是从URLVOID网站获得此信息的。 <https://www.urlvoid.com/scan/>

我以表格格式获取以下结果,并尝试在spyder中获取相同的结果。 See the Table

我正在使用正则表达式方法从表中获取详细信息。

######

import httplib2 
import re
def urlvoid(urlInput):                
    h2 = httplib2.Http(".cache")
    resp, content2 = h2.request(("https://www.urlvoid.com/scan/" + urlInput), "GET")
    content2String = (str(content2))
    rpderr = re.compile('\<div\sclass\=\"error\"\>', re.IGNORECASE)
    rpdFinderr = re.findall(rpderr,content2String)
    if "error" in str(rpdFinderr):
        ipvoidErr = True
    else:
        ipvoidErr = False
    if ipvoidErr == False:

        rpd2 = re.compile('(?<=Server Location</span></td><td>)[a-zA-Z0-9.]+(?=</td></tr>)')
        rpdFind2 = re.findall(rpd2,content2String)
        rpdSorted2=sorted(rpdFind2)

    return rpdSorted2

urlvoid("google.com")
######

但是,它效率不高,并且此正则表达式不适用于所有网站。有没有更简单的方法来获取所有这些信息?

1 个答案:

答案 0 :(得分:0)

我不建议您使用正则表达式来抓取数据,因为它可以通过bs4完成,并且如果您要建立正则表达式来完成,则需要长时间和复杂的条件。

import requests
from bs4 import BeautifulSoup,NavigableString
import re

def urlvoid(urlInput):
    url = "https://www.urlvoid.com/scan/" + urlInput
    res = requests.get(url)
    text = res.text
    soup = BeautifulSoup(text,"lxml").find("table",class_="table table-custom table-striped")
    all_tr = soup.find_all("tr")
    value = { tr.find_all("td")[0].text : 
                tr.find_all("td")[1].text.replace("\xa0","")
                for tr in all_tr}
    print(value)

urlvoid("google.com")