我无法在python中找到具体的评论,例如<!-- why -->
。
我的主要原因是找到2条具体评论中的所有链接。像解析器一样的东西。
我用Beautifulsoup
:
import urllib
over=urlopen("www.gamespot.com").read()
soup = BeautifulSoup(over)
print soup.find("<!--why-->")
但它不起作用。
我想我可能不得不使用regex
而不是Beautifulsoup
。
请帮忙。
实施例: 我们有像这样的HTML代码
<!--why-->
www.godaddy.com
<p> nice one</p>
www.wwf.com
<!-- why not-->
编辑:在2条评论之间,可能存在其他内容,例如标签。
我需要存储所有链接。
答案 0 :(得分:6)
如果您想要所有评论,可以将findAll
与可调用的用户一起使用:
>>> from bs4 import BeautifulSoup, Comment
>>>
>>> s = """
... <p>header</p>
... <!-- why -->
... www.test1.com
... www.test2.org
... <!-- why not -->
... <p>tail</p>
... """
>>>
>>> soup = BeautifulSoup(s)
>>> comments = soup.findAll(text = lambda text: isinstance(text, Comment))
>>>
>>> comments
[u' why ', u' why not ']
一旦你得到它们,你就可以使用常用的技巧来移动:
>>> comments[0].next
u'\nwww.test1.com\nwww.test2.org\n'
>>> comments[0].next.split()
[u'www.test1.com', u'www.test2.org']
根据页面的实际情况,您可能需要稍微调整一下,然后您必须选择所需的评论,但这应该可以帮助您入门。
编辑:
如果你真的只想要看起来像某些特定文字的那些,你可以做类似的事情
>>> comments = soup.findAll(text = lambda text: isinstance(text, Comment) and text.strip() == 'why')
>>> comments
[u' why ']
或者你可以使用列表理解来过滤它们:
>>> [c for c in comments if c.strip().startswith("why")]
[u' why ', u' why not ']