标签: scrapy scrapyd scrapinghub
我目前正在使用Scrapinghub的Scrapy Cloud来托管我的12只蜘蛛(和12个不同的项目)。
我想拥有一个包含所有12个蜘蛛使用的功能的文件夹,但不知道在每个蜘蛛中没有1个功能文件夹的情况下实现它的最佳方法是什么。
我正考虑在同一个项目下托管所有蜘蛛,在云端创建一个私有包,蜘蛛自己连接或托管ScrapyD,以便我可以参考模块。
有没有人偶然发现了这个问题,你的解决方案是什么?