我的项目中有几个蜘蛛,我想在独立的日志文件中记录每个蜘蛛(例如brand.log,product.log ......)。
所以我每只蜘蛛使用custom_settings
,但它似乎不起作用。到现在为止它是一个bug吗?有没有简单的配置可以解决这个问题?
非常感谢你的帮助!
答案 0 :(得分:0)
这对我有用。这是假项目中的蜘蛛:
# -*- coding: utf-8 -*-
import scrapy
class ExampleSpider(scrapy.Spider):
name = 'example'
start_urls = ['http://example.com/']
custom_settings = {
'LOG_FILE': '/tmp/example.log',
}
def parse(self, response):
self.logger.info('XXXXX')
我使用scrapy crawl example
启动蜘蛛,日志文件已成功写入/tmp/example.log
。