嘿,我有一个问题,尽管有点奇怪,但我希望我能在这里找到答案。 首先,我在网上抓东西,我也使用bs4和pandas 我将删除arround 600页,但我担心出现问题。
page_numbers = [
"1","2"
]
for page in page_numbers:
url = "example.com"+page
page_soup = BeautifulSoup(requests.get(url,timeout=10).text,
'html.parser')
data.to_csv('datapy'+page+'.csv',index=False)
正如我提到的过程结束时,我的csv文件超过一个页面,名称分别为datapy1和datapy2,但我希望将其保持为datapy。 如果我要删除data.to_csv中的+ page +,则只需一遍又一遍地写下每个页面。 拜托了