我正在json的网页中提取实时Feed。页面每分钟都会更新,因此我会每分钟提取一次数据。但该网页的服务器有时不太稳定,我的代码停止运行。我想以一种方式编写它,我的代码将不断请求数据,直到它得到它。有人在此之前写过这样的话:
try:
f=urllib2.open(blablabla...)
except urllib2.HTTPError, detail:
if detail.error == 500:
time.sleep(1)
continue
else:
raise
但是我的代码仍然因此错误而停止运行: urllib2.URLError:urlopen错误[Errno 8] nodename也没提供servname,或者不知道
答案 0 :(得分:1)
urllib2.HTTPError
是urllib2.URLError
的子类型。因此,当open
提出URLError
时,在查找HTTPError
时,实际上并没有意识到这一点。如果您想要捕获URLError
,请添加另一个except
子句来处理它。