我有两只scrapy蜘蛛,让我们说spider1
和spider2
。 spider1
抓取一些网页并收集文件中的网址。这是代码:
class FileWriterPipeline(object):
def __init__(self):
self.file = open('somefile.txt'), 'wb')
def process_item(self, item, spider):
if spider.name == 'spider1':
line = item['url'] + "\n"
self.file.write(line)
return item
问题是,只要我运行spider2
,somefile.txt
就会被清除干净。谁会知道这里有什么问题?
答案 0 :(得分:1)