使用python在HTML代码中查找特定注释

时间:2012-10-08 00:06:48

标签: python

我无法在python中找到具体的评论,例如<!-- why -->。 我的主要原因是找到2条具体评论中的所有链接。像解析器一样的东西。 我用Beautifulsoup

尝试了这个
import urllib
over=urlopen("www.gamespot.com").read()
soup = BeautifulSoup(over)
print soup.find("<!--why-->")

但它不起作用。 我想我可能不得不使用regex而不是Beautifulsoup

请帮忙。

实施例: 我们有像这样的HTML代码

<!--why-->
www.godaddy.com
<p> nice one</p>
www.wwf.com
<!-- why not-->

编辑:在2条评论之间,可能存在其他内容,例如标签。

我需要存储所有链接。

1 个答案:

答案 0 :(得分:6)

如果您想要所有评论,可以将findAll与可调用的用户一起使用:

>>> from bs4 import BeautifulSoup, Comment
>>> 
>>> s = """
... <p>header</p>
... <!-- why -->
... www.test1.com
... www.test2.org
... <!-- why not -->
... <p>tail</p>
... """
>>> 
>>> soup = BeautifulSoup(s)
>>> comments = soup.findAll(text = lambda text: isinstance(text, Comment))
>>> 
>>> comments
[u' why ', u' why not ']

一旦你得到它们,你就可以使用常用的技巧来移动:

>>> comments[0].next
u'\nwww.test1.com\nwww.test2.org\n'
>>> comments[0].next.split()
[u'www.test1.com', u'www.test2.org']

根据页面的实际情况,您可能需要稍微调整一下,然后您必须选择所需的评论,但这应该可以帮助您入门。

编辑:

如果你真的只想要看起来像某些特定文字的那些,你可以做类似的事情

>>> comments = soup.findAll(text = lambda text: isinstance(text, Comment) and text.strip() == 'why')
>>> comments
[u' why ']

或者你可以使用列表理解来过滤它们:

>>> [c for c in comments if c.strip().startswith("why")]
[u' why ', u' why not ']