Python urllib超时错误,即使是某些网站的标题

时间:2015-05-28 03:26:40

标签: python timeout urllib

我正在编写一个简单的Python 3脚本来检索HTML数据。这是我的测试脚本:

import urllib.request

url="http://techxplore.com/news/2015-05-audi-r8-e-tron-aims-high.html"

req = urllib.request.Request(
    url, 
    data=None, 
    headers={
        'User-agent': 'Mozilla/5.0 (X11; U; Linux i686) Gecko/20071127 Firefox/2.0.0.11',
        'Referer': 'http://www.google.com'
    }
)

f = urllib.request.urlopen(req)

这适用于大多数网站,但对于某些网站会返回以下错误:

urllib.error.URLError: <urlopen error [Errno 110] Connection timed out>

脚本中显示的URL是返回此错误的网站之一。根据其他帖子和网站的研究,似乎手动设置用户代理和/或引用者应解决问题,但此脚本仍然超时。我不确定为什么这只发生在某些网站上,而且我不知道还有什么可以尝试。我非常感谢社区提出的任何建议。

1 个答案:

答案 0 :(得分:0)

我今天再次尝试了这个脚本而没有改变任何东西,它完美地工作了。看起来这只是远程网络服务器的一些奇怪现象。