我正在调整来自http://danielfrg.com/blog/2013/04/01/nba-scraping-data/#disqus_thread的网络抓取程序,以便将ESPN的棒球数据划分为CSV。但是,当我运行第二段代码来编写csv游戏时,我得到'NoneType'对象没有属性'find_all'错误,来自以下代码部分
for index, row in teams.iterrows():
_team, url = row['team'], row['url']
r = requests.get(BASE_URL.format(row['prefix_1'], year, row['prefix_2']))
table = BeautifulSoup(r.text).table
for row in table.find_all("tr")[1:]: # Remove header
columns = row.find_all('td')
try:
_home = True if columns[1].li.text == 'vs' else False
_other_team = columns[1].find_all('a')[1].text
_score = columns[2].a.text.split(' ')[0].split('-')
_won = True if columns[2].span.text == 'W' else False
match_id.append(columns[2].a['href'].split('?id=')[1])
home_team.append(_team if _home else _other_team)
visit_team.append(_team if not _home else _other_team)
d = datetime.strptime(columns[0].text, '%a, %b %d')
dates.append(date(year, d.month, d.day))
我可以发布整个程序,但这是编译器读取错误的代码段。
完整的错误文本是
Traceback (most recent call last):
File "C:\Python27\Project Files\Game Parser.py", line 23, in <module>
for row in table.find_all("tr")[1:]: # Remove header
AttributeError: 'NoneType' object has no attribute 'find_all'
非常感谢任何有关如何运行此代码的帮助。
答案 0 :(得分:2)
错误表示您正在构建的table
变量:
table = BeautifulSoup(r.text).table
正在返回None
。 for row in table.find_all("tr")[1:]:
上的None
正在抛出错误。
您可以检查有问题的url
是否有您尝试访问它的方式。您可以通过打印出由此语句构造的url
来完成此操作:
BASE_URL.format(row['prefix_1'], year, row['prefix_2'])
然后在浏览器中转到此网址,检查它是否包含您感兴趣的表格。