循环遍历页面总是得到相同的结果

时间:2017-01-05 19:07:01

标签: python python-3.x http beautifulsoup urllib

我试图遍历页面并保存特定图像

import urllib.request
from bs4 import BeautifulSoup as bs

frontstring = 'http://www.haz.de/'

for i in range(1, 50):
    url = 'http://www.haz.de/Hannover/Aus-der-Region/Lehrte/Fotostrecken/' \
        + 'Digitales-Daumenkino-So-waechst-das-Parkhaus#p' + str(i)

    with urllib.request.urlopen(url) as page:
        soup = bs(page)
        galleryimage = soup.findAll('img', {'class': 'pda-fullgallery-large photo'})

        for imgtag in galleryimage:
            try:
                imgurl = frontstring + imgtag['src']
                imgname = 'img/fullgallery-large' + str(i) + '.jpg'
                urllib.request.urlretrieve(imgurl, imgname)
                print('saving image from ' + imgurl + ' to ' + imgname)
            except Exception as e:
                raise
            else:
                pass

但是图像总是一样的。我不知道哪里出了问题。如果我在浏览器中打开网址,它是正确的页面和图像,但汤似乎总是相同的代码。可能是一些非常愚蠢和简单的事情,但是在尝试了很长时间才找到错误之后我就没有看到它。

1 个答案:

答案 0 :(得分:1)

http://www.haz.de/Hannover/Aus-der-Region/Lehrte/Fotostrecken/Digitales-Daumenkino-So-waechst-das-Parkhaus
http://www.haz.de/Hannover/Aus-der-Region/Lehrte/Fotostrecken/Digitales-Daumenkino-So-waechst-das-Parkhaus/(offset)/1
http://www.haz.de/Hannover/Aus-der-Region/Lehrte/Fotostrecken/Digitales-Daumenkino-So-waechst-das-Parkhaus/(offset)/2
http://www.haz.de/Hannover/Aus-der-Region/Lehrte/Fotostrecken/Digitales-Daumenkino-So-waechst-das-Parkhaus/(offset)/3

这些是真正的网址,您看到的网址是由JavaScript生成的。您应该在刮取任何站点之前禁用JavaScrip