标签: python logging scrapy
我从更大的框架调用基于Scrapy的抓取工具。在爬行期间 Scrapy记录所有事件。爬行scrapy应该停止记录后,调用框架应该接管记录任务并再次打印到标准版。
Scrapy
如何阻止Scrapy控制所有日志并将其传回我的框架?
如何在Python中管理多个记录器?
更新:我已将crawler.spider.settings.overrides['LOG_ENABLED'] = False添加到我的抓取工具中。 Scrapy继续阻止我打印到标准输出。
crawler.spider.settings.overrides['LOG_ENABLED'] = False
答案 0 :(得分:0)
将LOG_ENABLED设置更改为False。
LOG_ENABLED
False