我开发了一个具有3级继承的scrapy项目:
我想创建一个python脚本来启动包含在蜘蛛/ myspiders上的所有蜘蛛,以避免调用(或crontab)scrapy抓取name1 | name2 | name3 |等。
我尝试使用" scrapy启动脚本"以及其他许多解决方案Running multiple spiders in the same process。谷歌搜索结果,但每次我都
ImportError: No module named project.project.spiders.myspider
或在我的脚本上使用sys.path.append
ImportError: No module named project.project.lib.myspider
目前我无法从python脚本中启动多个蜘蛛..
有人成功了吗?或者是否可以创建一个全球蜘蛛,它会调用所有其他蜘蛛,我可以使用 scrapy crawl myGlobalSpider
启动它提前致谢