Scrapy不使用curl命令进行爬网

时间:2012-12-29 13:48:35

标签: python scrapy

我有一个scrapy项目。我可以使用“scrapy crawl somespider”命令运行蜘蛛。但是,现在我正在尝试使用scrapyd来爬行。我跑的时候

curl http://localhost:6800/schedule.json -d project=crawlers -d spider=someproject

我得到的输出是

{"status": "ok", "jobid": "e0ace24c51bd11e28372079b5fff36ad"}

现在,当我检查

http://localhost:6800/jobs

我看到没有待处理的作业,只有一个已完成的作业才能运行

0:00:00.457973 time.

可能是什么问题?

请帮忙。 谢谢

0 个答案:

没有答案