使用Beautiful Soup,我尝试使用以下代码将网站上的所有链接附加到列表中。但是,代码似乎遍历链接列表并始终添加15次代码迭代通过站点上的链接列表,但输出不是我所期望的。您是否有任何建议如何调整代码,以便每个链接附加一次?最后,我想要一个包含所有15个链接的列表。感谢。
from bs4 import BeautifulSoup
import urllib2
url = 'http://www.gks.ru/bgd/free/B00_25/IssWWW.exe/Stg/d000/I000650R.HTM'
data = urllib2.urlopen(url).read()
page = BeautifulSoup(data,'html.parser')
l=[]
for link in page.findAll('a'):
l.append(link.get('href'))
print l[0:]
答案 0 :(得分:1)
根据评论中的讨论,您的错误似乎是
在循环中包含print
语句。你想打印全部
链接一旦结束,所以代码应该是:
l=[]
for link in page.findAll('a'):
l.append(link.get('href'))
print l
请注意,您只需要打印l
。 l[0:]
是等效的。