使用循环抓取网站时丢失数据

时间:2015-11-15 11:00:34

标签: python loops screen-scraping

初学者编码器在这里尝试做一个简单的网站刮。我想从搜索结果的多个页面中提取项目属性。我可以做到这一点,但我的问题是,每页末尾的项目似乎都缺失了。

我的循环/计数器是一个简单的错误吗?下面的示例代码应该只是将x打印为第x个搜索结果。

import requests
from bs4 import BeautifulSoup
import xlwt

headers = {'user-agent': 'Mozilla/5.0'}
pagelimit = 60 #number of results on page
startoffset = 0 #starting offset  (no. of items


def extract(soup,count):
    x = count
    for div in soup.findAll("div", "result-item standard"):
        print(x)
        x = x+1

offset = startoffset
count = 1
for i in range(0,10):
    url = "http://www.carsales.com.au/cars/results?offset=" + \
    str(offset) + \
    "&q=%28Service%3D%5BCarsales%5D%26%28%28SiloType%3D%5BDealer%20" + \
    "used%20cars%5D%7CSiloType%3D%5BDemo%20and%20near%20new%" + \
    "20cars%5D%29%7CSiloType%3D%5BPrivate%20seller%20cars%5D%29%29" + \
    "&sortby=~Price&limit=" + \
    str(pagelimit) + "&cpw=1"

    r = requests.get(url, headers)
    soup = BeautifulSoup(r.text, "html.parser")
    extract(soup,count)

    offset = str(i*pagelimit+int(startoffset))
    count = count + pagelimit

1 个答案:

答案 0 :(得分:0)

您的代码做出两个可能导致结果丢失的假设

第一个假设是每个页面都返回最大结果数(pagelimit) - 最终页面不太可能。你应该让extract方法返回x:

的最终值
def extract(soup,count):
    x = count
    for div in soup.findAll("div", "result-item standard"):
        print(x)
        x = x+1
    return x

然后您应该使用count = count + pagelimit

之类的内容替换count = extract(soup,count)

然后您也可以使用此数字设置偏移量。

第二个假设是总会有至少10页的汽车。如果少于10页,当您循环到结果列表的末尾时,您的代码可能会表现得很奇怪。