Crawler进程意外死亡

时间:2012-04-12 19:25:24

标签: python scrapy scrapyd

我遇到了爬虫程序意外死亡的问题。

我正在使用scrapy 0.14,问题也存在于0.12中。

scrapyd日志显示如下条目:进程死亡:exitstatus =无 蜘蛛日志不显示蜘蛛关闭信息,如我的数据库状态所示。

还有其他人遇到类似情况吗?我如何追踪这些过程消失的原因,任何想法, 建议?

1 个答案:

答案 0 :(得分:0)

我认为我有类似的情况。

进程死亡的原因是蜘蛛正在产生异常,导致进程停止。

要找出异常,请查看.scrapy文件夹中某处的日志文件。对于每个已启动的爬网程序进程,scrapy都会在其名称中创建一个具有作业ID的日志文件。