我们说我们有一个网站 www.example.com 我需要网站上的5个元素,我找到了每个元素并使用BeautifulSoup声明它们。
g_data1 = soup.find_all("td", {"class": "title"})
for item in g_data1:
try
print item.****[3].text
except:
pass
现在我必须将此信息保存在名为****。csv的CSV文件中 这是我尝试将其保存在CSV文件中的代码:
def save_csv(f, tvseries):
'''
Output a CSV file containing highest ranking TV-series.
'''
import urllib2
url = *example url*
response = urllib2.urlopen(url)
with open('****.csv', 'w') as f:
f.write(response.read())
我正在获取整个HTML网站..因为我显然已经宣布要抓住网址,但是有人可以向我解释一种不同的方法,因为我真的不明白如何:L
亲切的问候,
1337