import requests
def search(query, pages=4, rsz=8):
url = 'https://ajax.googleapis.com/ajax/services/search/web'
params = {
'v': 1.0, # Version
'q': query, # Query string
'rsz': rsz, # Result set size - max 8
}
for s in range(0, pages*rsz+1, rsz):
params['start'] = s
r = requests.get(url, params=params)
for result in r.json()['responseData']['results']:
yield result
在2,3次尝试时,它会检索所有必需的页面,但在2,3次尝试后,它没有得到任何结果。它正在回归"无"要么 []。几次尝试后谷歌是否阻止了我的IP?任何解决方案?
答案 0 :(得分:0)
我不确定这是否会起作用,但避免被不鼓励Scraping的网站阻止的唯一方法是在检索网页时使用代理。 请检查代码在代码中的使用方式。
答案 1 :(得分:0)
问题是使用请求和BeautifulSoup解决的。
import requests, import BeautifulSoup
url = 'http://www.google.com/search'
payload = { 'q' : strToSearch, 'start' : str(start), 'num' : str(num) }
r = requests.get( url,params = payload, auth=('user', 'pass'))
subSoup = BeautifulSoup( subR.text, 'html.parser' )
text = soup.get_text(separator=' ')