从python调用url时获取'错误'页面源代码

时间:2016-05-01 20:31:18

标签: python html url web-scraping

尝试从网站检索页面源,我得到的文本与通过Web浏览器查看同一页面源时完全不同(和更短)。

https://stackoverflow.com/questions/24563601/python-getting-a-wrong-source-code-of-the-web-page-asp-net

这个人有一个相关的问题,但获得了主页来源而不是请求的 - 我得到的东西完全是外星人。

代码是:

from urllib import request

def get_page_source(n):
    url = 'https://www.whoscored.com/Matches/' + str(n) + '/live'
    response = request.urlopen(url)
    return str(response.read())

n = 1006233
text = get_page_source(n)

这是我在此示例中定位的页面: https://www.whoscored.com/Matches/1006233/live

有问题的网址包含网页来源中的丰富信息,但在运行上述代码时,我最终只得到以下内容:

text =

b'<html style="height:100%"><head><META NAME="ROBOTS" CONTENT="NOINDEX,
NOFOLLOW"><meta name="format-detection" content="telephone=no"><meta 
name="viewport" content="initial-scale=1.0"><meta http-equiv="X-
UA-Compatible" content="IE=edge,chrome=1"></head><body style="margin:0px;
height:100%"><iframe src="/_Incapsula_Resource?CWUDNSAI=24&
xinfo=0-12919260-0 0NNY RT(1462118673272 111) q(0 -1 -1 -1) r(0 -1) 
B12(4,315,0) U2&incident_id=276000100045095595-100029307305590944&edet=12&
cinfo=04000000" frameborder=0 width="100%" height="100%" marginheight="0px" 
marginwidth="0px">Request unsuccessful. Incapsula incident ID: 
276000100045095595-100029307305590944</iframe></body></html>'

这里出了什么问题?服务器是否可以检测到机器人,即使它没有发送重复请求 - 如果是,如何 - 并且有办法吗?

3 个答案:

答案 0 :(得分:8)

这里有几个问题。根本原因是你试图抓住的网站知道你不是一个真实的人并且阻止你。许多网站通过检查标题来查看请求是否来自浏览器(机器人),从而实现此目的。但是,这个网站看起来像是使用Incapsula,它旨在提供更复杂的保护。您可以尝试以不同的方式设置您的请求,通过设置标题来欺骗页面上的安全性 - 但我怀疑这会起作用。

import requests

def get_page_source(n):
    url = 'https://www.whoscored.com/Matches/' + str(n) + '/live'
    headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36'}
    response = requests.get(url, headers=headers)
    return response.text

n = 1006233
text = get_page_source(n)
print text

该网站看起来也使用验证码 - 它旨在防止网页抓取。如果一个网站正在努力防止抓取 - 可能是因为他们提供的数据是专有的。我建议找另一个提供此数据的网站 - 或尝试使用官方API。

请稍后查看此(https://stackoverflow.com/a/17769971/701449)回答。看起来whoscored.com使用OPTA API来提供信息。您可以跳过中间人并直接进入数据源。祝你好运!

答案 1 :(得分:1)

以下是解决此问题的一种方法。第一次运行脚本时,您可能需要在webdriver打开的窗口中键入验证码,但之后您应该好好去。然后,您可以使用beautifulsoup来导航响应。

from selenium import webdriver

def get_page_source(n):

    wd = webdriver.Chrome("/Users/karlanka/Downloads/Chromedriver")
    url = 'https://www.whoscored.com/Matches/' + str(n) + '/live'

    wd.get(url)

    html_page = wd.page_source
    wd.quit()

答案 2 :(得分:0)

您应该尝试设置&#34; User-Agent&#34;在HTTP标题中。