我使用this脚本从同一个html页面下载图像。但如果图像足够大,这个脚本不能正确下载 - 所有图像都是1,15 Kb而且不显示。 我该如何解决?怎么了?
答案 0 :(得分:7)
如果您在http://tema.ru/travel/new-york.2011.11/中下载并检查HTML,则会看到类似
的内容<img src="IMG_5072.jpg" alt="" width="1000" height="667" border="1" />
所以这个页面正在使用相对链接。
该行
parsed[2] = image["src"]
从
更改parsed
['http', 'tema.ru', '/travel/new-york.2011.11/', '', '', '']
到
['http', 'tema.ru', 'IMG_5072.jpg', '', '', '']
然后用
形成新网址url = urlparse.urlunparse(parsed)
将url
设置为不存在的http://tema.ru/IMG_5072.jpg
。
正确的网址为http://tema.ru/travel/new-york.2011.11/IMG_5072.jpg
。
我们可以用
形成该网址url = urlparse.urljoin(base_url,image['src'])
所以试试
"""
http://stackoverflow.com/a/258511/190597
Author: Ryan Ginstrom
dumpimages.py
Downloads all the images on the supplied URL, and saves them to the
specified output file ("/tmp" by default)
Usage:
python dumpimages.py http://example.com/ [output]
"""
import os
import sys
import urllib
import urllib2
import urlparse
import argparse
import BeautifulSoup
def main(base_url, out_folder):
"""Downloads all the images at 'url' to out_folder"""
soup = BeautifulSoup.BeautifulSoup(urllib2.urlopen(base_url))
for image in soup.findAll("img"):
src = image['src']
print "Image: {s}".format(s=src)
_, filename = os.path.split(urlparse.urlsplit(src).path)
outpath = os.path.join(out_folder, filename)
url = urlparse.urljoin(base_url, src)
urllib.urlretrieve(url, outpath)
if __name__ == "__main__":
parser = argparse.ArgumentParser()
parser.add_argument('url')
parser.add_argument('out_folder', nargs = '?', default = '/tmp')
args = parser.parse_args()
main(args.url, args.out_folder)