如何为每个请求/ URL保存一个输出文件?

时间:2019-06-26 13:26:08

标签: python scrapy

我正在使用Scrapy并进行设置:

  • 物品
  • ItemLoader
  • ItemPipeline
  • 使用CSV定义多个URL的start_requests
  • 自定义作家

我简单地运行刮板:

scrapy crawl scraper

但是,所有输出都进入一个文件。

我想要每个请求/ URL一个输出文件吗?

我想念什么?

0 个答案:

没有答案