我在使用python访问网页时遇到问题 - 它抛出HTTP错误403.在浏览堆栈溢出后,我发现许多其他用户遇到相同的错误并通过更改请求的标头来修复它。我试过这个,但仍然收到错误。
这是我的代码:
req = urllib2.Request("http://www.mozilla.org")
req.add_header('User-agent', 'Mozilla/5.0 (Windows; U; Windows NT 5.1; en-GB; rv:1.8a3) Gecko/20040817')
try:
response = urllib2.urlopen(req)
except urllib2.URLError, (err):
print "URL error(%s)" % (err)
编辑:这是我的代码的一大块,它是网络爬虫的开始。另外 - 我一直在使用http://www.mozilla.org作为我的测试网址,虽然它似乎不适用于任何其他网址,如谷歌和雅虎。
#!/usr/bin/python
import sys
import urllib2
import urlparse
tocrawl = set([sys.argv[1]])
crawled = set([])
while 1:
try:
crawling = tocrawl.pop()
print 'Crawling: ', crawling
except KeyError:
print 'No more to crawl!'
raise StopIteration
url = urlparse.urlparse(crawling)
print 'Url parse returned ', url
req = urllib2.Request(crawling)
req.add_header('User-agent', 'Mozilla/5.0 (Windows; U; Windows NT 5.1; en-GB; rv:1.8a3) Gecko/20040817')
print 'header: ', req.get_header('User-agent')
try:
print 'test'
response = urllib2.urlopen(req)
print 'test2'
print 'response: ', response
except urllib2.URLError, (err):
print "URL error(%s)" % (err)
continue
msg = response.read()
答案 0 :(得分:0)
固定。问题是我没有设置必要的代理。感谢您的回复。
我添加了以下代码段以便修复。
proxy_info = urllib2.ProxyHandler({'http' : "proxy:80"})
opener = urllib2.build_opener(proxy_info)
urllib2.install_opener(opener)