scrapy deploy -L什么都不返回

时间:2013-03-09 00:08:31

标签: python-2.7 scrapy scrapyd

我正在尝试部署我的scrapy项目,但我被困了

我肯定有工作项目和几个蜘蛛:

deploy@susychoosy:~/susy_scraper$ scrapy
Scrapy 0.17.0 - project: clothes_spider

当我做scrapy列表时,它会显示所有蜘蛛的列表。

我修改了我的scrapy.cfg文件,看起来像这样:

[settings]
default = clothes_spider.settings
[deploy:scrapyd]
url = http://localhost:6800/
project = clothes_spider

然后我这样做:

deploy@susychoosy:~/susy_scraper$ scrapy deploy -l
scrapyd              http://localhost:6800/

所以一切似乎都很好,但是在下一步我没有看到任何可用的项目:

deploy@susychoosy:~/susy_scraper$ scrapy deploy -L scrapyd

deploy@susychoosy:~/susy_scraper$

我尝试直接打字:

deploy@susychoosy:~/susy_scraper$ scrapy deploy -L scrapyd -p clothes_spider

deploy@susychoosy:~/susy_scraper$

但它没有帮助。

有什么建议我做错了吗?

2 个答案:

答案 0 :(得分:0)

您必须首先将项目部署到目标:

$ scrapy deploy scrapyd -p clothes_spider

答案 1 :(得分:0)

当您输入“scrapy deploy -L scrapyd”时,“scrapy服务器”终端的输出是什么? 它应该是这样的,使用“listprojects.json”:

2013-03-13 10:43:33+0800 [HTTPChannel,0,127.0.0.1] 127.0.0.1 - - [13/Mar/2013:02:43:33 +0000] "GET /listprojects.json HTTP/1.1" 200 42 "-" "Python-urllib/2.7"