我正试图从http://scores.covers.com/football-scores-matchups.aspx
抓取线条动作我需要使用提供的日历迭代每个季节和周:
当我检查网络以查看发送的内容时,我在更改季节时会看到两个POST请求:
(我已将上述3张图片合并为1张,因为我没有足够的代表来发布超过1张图片)
http://s29.postimg.org/773muclra/covers_scrape4.jpg
我整天都在搜索和阅读,并且没有取得任何进展。如果我将有效负载编辑为意外的话,我可以通过使用Firebug编辑并重新发送post请求来重新创建我得到的错误。所以我觉得问题在于我编码和发送数据的方式。我已经尝试了json.dump,utf-8,Content-Type application / x-www ...,我能想到的每一个组合。
我目前的代码如下:
import urllib.request
import json
import urllib.parse
class Scraper():
def __init__(self):
pass
def scrape(self):
url = 'http://scores.covers.com/ajax/SportsDirect.Controls.LiveScoresControls.ScoresCalendar,SportsDirect.Controls.LiveScoresControls.ashx?_method=changeDay&_session=no'
data = {
'league': '1',
'SeasonString': '2012-2013',
'Year': '1',
'Month': '1',
'Day': '1'
}
# data = urllib.parse.urlencode(data).encode('utf-8')
data = json.dumps(data).encode('utf-8')
headers = {
'Host': 'scores.covers.com',
'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64; rv:32.0) Gecko/20100101 Firefox/32.0',
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
'Accept-Language': 'en-US,en;q=0.5',
'Accept-Encoding': 'gzip, deflate',
'Referer': 'http://scores.covers.com/football-scores-matchups.aspx',
'Content-Type': 'application/json',
'Connection': 'keep-alive',
'Pragma': 'no-cache',
'Cache-Control': 'no-cache'
}
req = urllib.request.Request(url)
req.data = data
req.headers = headers
f = urllib.request.urlopen(req)
print(f.read())
return f
给出了:
In [1]: import scraper
In [2]: s = scraper.Scraper()
In [3]: s.scrape()
b"new Object();r.error = new ajax_error('System.ArgumentException','Object of type \\'System.DBNull\\' cannot be convert
ed to type \\'System.String\\'.',0)"
Out[3]: <http.client.HTTPResponse at 0x4d6b650>
提前致谢。
答案 0 :(得分:1)
使用data="league=1\nSeasonString=2014-2015\nYear=1\nMonth=1\nDay=1"
数据不是json类型。