在使用robobrowser进行表单提交后尝试解析网站时,我不熟悉webscraping。我得到了正确的数据(我可以在以下时查看它:print(browser.parsed))但是在解析它时遇到了问题。网页源代码的相关部分如下所示:
<div id="ii">
<tr>
<td scope="row" id="t1a"> ID (ID Number)</a></td>
<td headers="t1a">1234567 </td>
</tr>
<tr>
<td scope="row" id="t1b">Participant Name</td>
<td headers="t1b">JONES, JOHN </td>
</tr>
<tr>
<td scope="row" id="t1c">Sex</td>
<td headers="t1c">MALE </td>
</tr>
<tr>
<td scope="row" id="t1d">Date of Birth</td>
<td headers="t1d">11/25/2016 </td>
</tr>
<tr>
<td scope="row" id="t1e">Race / Ethnicity</a></td>
<td headers="t1e">White </td>
</tr>
如果我这样做
in: browser.select('#t1b")
我明白了:
out: [<td id="t1b" scope="row">Inmate Name</td>]
代替JONES,JOHN。
我能够获得相关数据的唯一方法是:
browser.select('tr')
这将返回29个每个'tr'的列表,我可以将其转换为文本并搜索相关信息。
我也尝试过创建一个BeautifulSoup对象:
x = browser.select('#ii')
soup = BeautifulSoup(x[0].text, "html.parser")
但它丢失了所有标签/ ID,因此我无法弄清楚如何在其中进行搜索。
是否有一种简单的方法让它使用'tr'循环遍历每个元素并获取实际数据而不是标签反对重复转换为字符串变量并搜索它?
由于
答案 0 :(得分:0)
获取所有&#34;标签&#34; <meta http-equiv="Cache-Control" content="no-transform">
元素并将next td
sibling value收集结果转换为字典:
td
打印:
from pprint import pprint
from bs4 import BeautifulSoup
data = """
<table>
<tr>
<td scope="row" id="t1a"> ID (ID Number)</a></td>
<td headers="t1a">1234567 </td>
</tr>
<tr>
<td scope="row" id="t1b">Participant Name</td>
<td headers="t1b">JONES, JOHN </td>
</tr>
<tr>
<td scope="row" id="t1c">Sex</td>
<td headers="t1c">MALE </td>
</tr>
<tr>
<td scope="row" id="t1d">Date of Birth</td>
<td headers="t1d">11/25/2016 </td>
</tr>
<tr>
<td scope="row" id="t1e">Race / Ethnicity</a></td>
<td headers="t1e">White </td>
</tr>
</table>
"""
soup = BeautifulSoup(data, 'html5lib')
data = {
label.get_text(strip=True): label.find_next_sibling("td").get_text(strip=True)
for label in soup.select("tr > td[scope=row]")
}
pprint(data)