我是Scrapy和Python的新手,所以即使看完文档后我也可能会遗漏一些东西。
我的明星网球必须参加一些足球锦标赛,每场锦标赛都有多场比赛。第一个解析器获得所有锦标赛并为每个锦标赛提出新请求以获得比赛。 我正在尝试找到一种保存锦标赛信息的方法,然后再提出解析匹配的请求。在我看来会是这样的:
def parse_matches(self, response):
for match in response.css('#tup_type_1_mkt_grps .rowOdd'):
#fetching the tournament properties
tournament = TournamentItem(name=name, country=country...)
#save the tournament (I don't know how)
yield scrapy.Request(match.css('a[href]::attr(href)').extract_first(), callback=self.parse_bets)
任何人都可以考虑这样做吗?
答案 0 :(得分:1)
我找到了一种方法(我是对的,我错过了一些重要的东西)。您可以创建一个管道来存储数据库中的项目,但同时您可以继续发送要解析的URL。我感到很困惑,我很难说两者都不能共存