我正在抓取一个页面,从表中提取数据,所需的最终产品是列表。
import urllib2
from bs4 import BeautifulSoup
html = BeautifulSoup(urllib2.urlopen('http://domain.com').read(), 'lxml')
tagged_data = [row('td') for row in html('table',{'id' : 'targeted_table'})[0]('tr') ]
# One of the <td>'s has an a tag in it that I need to grab the link from, hence the conditional
clean_data = [[(item.string if item.string is not None else ([item('a')[0].string, item('a')[0]['href']])) for item in info ] for info in tagged_data ]
以上代码生成以下结构:
[[[u'data 01',
'http://domain1.com'],
u'data 02',
u'data 03',
u'data 04'],
[[u'data 11',
'http://domain2.com'],
u'data 12',
u'data 13',
u'data 14'],
[[u'data 01',
'http://domain1.com'],
u'data 22',
u'data 23',
u'data 24']]
但我真正喜欢的是:
[[u'data 01',
u'http://domain1.com',
u'data 02',
u'data 03',
u'data 04'],
[u'data 11',
u'http://domain2.com',
u'data 12',
u'data 13',
u'data 14'],
[u'data 01',
u'http://domain1.com',
u'data 22',
u'data 23',
u'data 24']]
我也尝试过:
clean_data = [[(item.string if item.string is not None else (item('a')[0].string, item('a')[0]['href'])) for item in info ] for info in tagged_data ]
但它在子列表的第一项中添加了一个元组(我认为)。
[(u'data01',
'http://domain1.com'),
u'data02',
u'data03',
u'data04']
那么建议?
示例数据
<table id='targeted_table'>
<tr>
<td><a href="http://domain.com">data 01</a></td>
<td>data 02</td>
<td>data 03</td>
<td>data 04</td>
</tr>
<tr>
<td><a href="http://domain.com">data 11</a></td>
<td>data 12</td>
<td>data 13</td>
<td>data 14</td>
</tr>
<tr>
<td><a href="http://domain.com">data 01</a></td>
<td>data 22</td>
<td>data 23</td>
<td>data 24</td>
</tr>
<tr>
<td><a href="http://domain.com">data 01</a></td>
<td>data 32</td>
<td>data 33</td>
<td>data 34</td>
</tr>
</table>
答案 0 :(得分:2)
该行
html = BeautifulSoup(urllib2.urlopen('http://domain.com').read(), 'lxml')
表示您已安装lxml,因此您可以使用|
的XPath来提取文本或属性值:
import urllib2
import lxml.html as LH
html = LH.parse(urllib2.urlopen('http://domain.com'))
clean_data = [[elt for elt in tr.xpath('td/a/text() | td/a/@href | td/text()')]
for tr in html.xpath('//table[@id="targeted_table"]/tr')]
print(clean_data)
产量
[['http://domain.com', 'data 01', 'data 02', 'data 03', 'data 04'],
['http://domain.com', 'data 11', 'data 12', 'data 13', 'data 14'],
['http://domain.com', 'data 01', 'data 22', 'data 23', 'data 24'],
['http://domain.com', 'data 01', 'data 32', 'data 33', 'data 34']]
您也可以通过一次调用xpath
方法来执行此操作:
pieces = iter(html.xpath('''//table[@id="targeted_table"]/tr/td/a/text()
| //table[@id="targeted_table"]/tr/td/a/@href
| //table[@id="targeted_table"]/tr/td/text()'''))
clean_data = zip(*[pieces]*5)
答案 1 :(得分:1)
你试图让列表理解在某些时候发出两个元素,而在其他时候发出一个元素。
你可以通过对你的“一个if [criteria] else two”代码进行理解来做这样的事情。
clean_data = [[res for item in info for res in (
[item.string] if item.string is not None else
([item('a')[0].string, item('a')[0]['href']])
)]
for info in tagged_data]
当然,我不认为这种方法很干净。如果您正在解析HTML / XML,我建议您使用这些工具来避免杂乱的树遍历。