我正在废弃一个网站,一切都很好,除了我不能将网站中的链接保存到变量然后保存到文本文件。
import requests
from bs4 import BeautifulSoup
r = requests.get("https://website.com/list/")
soup = BeautifulSoup(r.content)
file = open("newtext.txt", "w")
for link in soup.find_all("a"):
g_data = link.get("href")
print g_data
输出完美,直到此脚本
但如果我在执行for循环后尝试再次打印g_data,一切都会消失..
print g_data
只有一个链接没有输出。我做错了什么?
PS:我在不同的网站上尝试了这一点,所有输出都没有任何错误。
答案 0 :(得分:3)
在您发布的代码中,g_data
一次只指向一个href
。如果您希望它收集{em>所有的href
属性,则需要将其设为list
:
g_data = []
for link in soup.find_all("a"):
g_data.append(link.get("href"))