我遇到了爬虫程序意外死亡的问题。
我正在使用scrapy 0.14,问题也存在于0.12中。
scrapyd日志显示如下条目:进程死亡:exitstatus =无 蜘蛛日志不显示蜘蛛关闭信息,如我的数据库状态所示。
还有其他人遇到类似情况吗?我如何追踪这些过程消失的原因,任何想法, 建议?
答案 0 :(得分:0)
我认为我有类似的情况。
进程死亡的原因是蜘蛛正在产生异常,导致进程停止。
要找出异常,请查看.scrapy
文件夹中某处的日志文件。对于每个已启动的爬网程序进程,scrapy都会在其名称中创建一个具有作业ID的日志文件。