如何使用谷歌api废弃数据

时间:2016-01-07 19:21:08

标签: python google-api web-scraping scrapy python-requests

import requests

def search(query, pages=4, rsz=8):
    url = 'https://ajax.googleapis.com/ajax/services/search/web'
    params = {
        'v': 1.0,     # Version
        'q': query,   # Query string
        'rsz': rsz,   # Result set size - max 8
    }

    for s in range(0, pages*rsz+1, rsz):
        params['start'] = s
        r = requests.get(url, params=params)
        for result in r.json()['responseData']['results']:
            yield result

在2,3次尝试时,它会检索所有必需的页面,但在2,3次尝试后,它没有得到任何结果。它正在回归"无"要么 []。几次尝试后谷歌是否阻止了我的IP?任何解决方案?

2 个答案:

答案 0 :(得分:0)

我不确定这是否会起作用,但避免被不鼓励Scraping的网站阻止的唯一方法是在检索网页时使用代理。 请检查代码在代码中的使用方式。

答案 1 :(得分:0)

问题是使用请求和BeautifulSoup解决的。

import requests, import BeautifulSoup
url = 'http://www.google.com/search'
payload = { 'q' : strToSearch, 'start' : str(start), 'num' : str(num) }
r = requests.get( url,params = payload, auth=('user', 'pass')) 
subSoup = BeautifulSoup( subR.text, 'html.parser' )
text = soup.get_text(separator=' ')