Scrapinghub中的模块文件夹

时间:2018-04-02 11:35:42

标签: scrapy scrapyd scrapinghub

我目前正在使用Scrapinghub的Scrapy Cloud来托管我的12只蜘蛛(和12个不同的项目)。

我想拥有一个包含所有12个蜘蛛使用的功能的文件夹,但不知道在每个蜘蛛中没有1个功能文件夹的情况下实现它的最佳方法是什么。

我正考虑在同一个项目下托管所有蜘蛛,在云端创建一个私有包,蜘蛛自己连接或托管ScrapyD,以便我可以参考模块。

有没有人偶然发现了这个问题,你的解决方案是什么?

0 个答案:

没有答案