我的问题是我要保存网址提供的文件。 说网址类似于“http://www.somesitename.com/Something/filename.fileextension” 例如 some_url ='http://www.fordantitrust.com/files/python.pdf' filename = myfile.pdf
我想下载此文件。 我知道只要您的系统和请求的网址之间没有任何代理,我就可以使用urllib.urlretrieve(some_url,filename)轻松完成。
我有一个代理,所以每次我想下载这个文件时,我都要通过该代理。 我不知道该怎么做。
感谢任何帮助。
答案 0 :(得分:2)
自Python 2.6以来,Urllib已弃用,请改用urllib2。通常,如果设置了全局代理,则代理由urllib2透明地处理。如果没有,请尝试使用urllib2.proxyhandler设置代理。
来自python docs的示例代码:
proxy_handler = urllib2.ProxyHandler({'http': 'http://www.example.com:3128/'})
proxy_auth_handler = urllib2.ProxyBasicAuthHandler()
proxy_auth_handler.add_password('realm', 'host', 'username', 'password')
opener = urllib2.build_opener(proxy_handler, proxy_auth_handler)
# This time, rather than install the OpenerDirector, we use it directly:
opener.open('http://www.example.com/login.html')