while Fileupdate <= Filecount:
print(Fileupdate)
url = 'http://www.whatever.com/photo/'+str(Fileupdate)+'.jpg'
try:
a = urllib.request.urlopen(url)
except urllib.error.HTTPError as err:
if err.code == 404:
Fileupdate = Fileupdate + 1
continue
urllib.request.urlretrieve(url, str(Fileupdate)+'.jpg')
Fileupdate = Fileupdate + 1
continue
它将搜索网站并识别要从中下载文件的网址但开始下载,然后在下载262.1kb文件后每次冻结。它不会下载文件的其余部分,也不会继续搜索系列的其余部分。希望我不再丢失旧代码了...就像一个假人我刚刚开始保存旧代码。至少它有一些我现在可以纠正的缺陷。这不值得一试。