我正在尝试获取与用户尝试访问的任何网站有关的信息。为了阻止任何恶意网站的访问,我需要诸如黑名单状态,IP地址,服务器位置等详细信息。我是从URLVOID网站获得此信息的。 <https://www.urlvoid.com/scan/>
我以表格格式获取以下结果,并尝试在spyder中获取相同的结果。 See the Table
我正在使用正则表达式方法从表中获取详细信息。
######
import httplib2
import re
def urlvoid(urlInput):
h2 = httplib2.Http(".cache")
resp, content2 = h2.request(("https://www.urlvoid.com/scan/" + urlInput), "GET")
content2String = (str(content2))
rpderr = re.compile('\<div\sclass\=\"error\"\>', re.IGNORECASE)
rpdFinderr = re.findall(rpderr,content2String)
if "error" in str(rpdFinderr):
ipvoidErr = True
else:
ipvoidErr = False
if ipvoidErr == False:
rpd2 = re.compile('(?<=Server Location</span></td><td>)[a-zA-Z0-9.]+(?=</td></tr>)')
rpdFind2 = re.findall(rpd2,content2String)
rpdSorted2=sorted(rpdFind2)
return rpdSorted2
urlvoid("google.com")
######
但是,它效率不高,并且此正则表达式不适用于所有网站。有没有更简单的方法来获取所有这些信息?
答案 0 :(得分:0)
我不建议您使用正则表达式来抓取数据,因为它可以通过bs4
完成,并且如果您要建立正则表达式来完成,则需要长时间和复杂的条件。
import requests
from bs4 import BeautifulSoup,NavigableString
import re
def urlvoid(urlInput):
url = "https://www.urlvoid.com/scan/" + urlInput
res = requests.get(url)
text = res.text
soup = BeautifulSoup(text,"lxml").find("table",class_="table table-custom table-striped")
all_tr = soup.find_all("tr")
value = { tr.find_all("td")[0].text :
tr.find_all("td")[1].text.replace("\xa0","")
for tr in all_tr}
print(value)
urlvoid("google.com")