脚本不下载大图像

时间:2011-12-28 19:37:16

标签: python

我使用this脚本从同一个html页面下载图像。但如果图像足够大,这个脚本不能正确下载 - 所有图像都是1,15 Kb而且不显示。 我该如何解决?怎么了?

1 个答案:

答案 0 :(得分:7)

如果您在http://tema.ru/travel/new-york.2011.11/中下载并检查HTML,则会看到类似

的内容
<img src="IMG_5072.jpg" alt="" width="1000" height="667" border="1" />

所以这个页面正在使用相对链接。

该行

parsed[2] = image["src"]

更改parsed
['http', 'tema.ru', '/travel/new-york.2011.11/', '', '', '']

['http', 'tema.ru', 'IMG_5072.jpg', '', '', '']

然后用

形成新网址
url = urlparse.urlunparse(parsed)

url设置为不存在的http://tema.ru/IMG_5072.jpg。 正确的网址为http://tema.ru/travel/new-york.2011.11/IMG_5072.jpg

我们可以用

形成该网址
url = urlparse.urljoin(base_url,image['src'])

所以试试

"""
http://stackoverflow.com/a/258511/190597
Author: Ryan Ginstrom
dumpimages.py
    Downloads all the images on the supplied URL, and saves them to the
    specified output file ("/tmp" by default)

Usage:
    python dumpimages.py http://example.com/ [output]
"""
import os
import sys
import urllib
import urllib2
import urlparse
import argparse
import BeautifulSoup

def main(base_url, out_folder):
    """Downloads all the images at 'url' to out_folder"""
    soup = BeautifulSoup.BeautifulSoup(urllib2.urlopen(base_url))
    for image in soup.findAll("img"):
        src = image['src']
        print "Image: {s}".format(s=src) 
        _, filename = os.path.split(urlparse.urlsplit(src).path)
        outpath = os.path.join(out_folder, filename)
        url = urlparse.urljoin(base_url, src)
        urllib.urlretrieve(url, outpath)

if __name__ == "__main__":
    parser = argparse.ArgumentParser()
    parser.add_argument('url')
    parser.add_argument('out_folder', nargs = '?', default = '/tmp')
    args = parser.parse_args()
    main(args.url, args.out_folder)