我需要下载大约1000个文件/网址,手动下载很难。
我试图将网址放在列表中并循环浏览列表,但我认为我的代码会覆盖以前的文件而只保留列表中的最后一项
这是我的代码
#!/usr/bin/env python
import urllib3
http = urllib3.PoolManager()
urls = ["http://url1.nt.gz" , "http://url2.nt.gz" , "http://url3.nt.gz"]
N =1; // counter helps me to rename the downloaded files
print "downloading with urllib"
for url in urls
r = http.request('GET',url)
Name =str(N+1) // each time increment the counter by one
with open("file"+Name+".nt.gz", "wb") as fcont:
fcont.write(r.data)
有什么建议吗?
答案 0 :(得分:1)
您没有增加计数器 - 您添加1而不将其保存回N
设置N += 1
后添加Name
。在你的for之后,你错过了:
。
我不太确定你的千禧网址在哪里 - 我只在urls
中看到3。
#!/usr/bin/env python
import urllib3
http = urllib3.PoolManager()
urls = ["http://url1.nt.gz" , "http://url2.nt.gz" , "http://url3.nt.gz"]
N =1; // counter helps me to rename the downloaded files
print "downloading with urllib"
for url in urls:
r = http.request('GET',url)
Name =str(N+1)
N += 1
with open("file"+Name+".nt.gz", "wb") as fcont:
fcont.write(r.data)
答案 1 :(得分:0)
print "downloading with urllib"
for url in urls
r = http.request('GET',url)
Name += N