Scrapy - 无法正确格式化csv

时间:2016-12-18 01:25:05

标签: python csv scrapy scrapy-spider

我目前正在训练Scrapy,我想正确地格式化我的出口。 以下是输出:(一个法国着名的分类广告网站被刮去进行培训)

"600 €,,,850 €,,,850 €,,,850 €,,770 €,,,600 €,,,600 €,,,60 €,,,782 €,,,670 €,,,700 €,,,936 €,,,730 €,,,450 €,,,800 €,,,680 €,,,865 €,,,790 €,,,880 €,,,850 €,,,900 €,,,813 €,,,850 €,,,795 €,,,560 €,,,900 €,,,750 €,,,950 €,,,390 €,,,875 €,,,650 €,,,799 €,,,825 €,,,695 €,,,790 €,,","Studio meublé 10m² GAITE PARIS 14e,,Très joli studio paris 14,,Studio meublé avec mezzanine Porte d'Orléans,,Studio 1 pièce 33 m²,,STUDIO 20m² - Métro ALESIA -St Pierre de Montrouge,,Studio meublé porte d'Orléans,,Location courte durée Studio 14ème Alésia,,Studio paris 14eme libre dec et janv/nuit,,Appartement 2 pièces 29 m²,,Appartement Alésia / 14ème arrondissement,,Studio meublé a louer de suite,,STUDIO rue Pernety 75014,,Studio 15m2 - Paris 14ème,,Appartement Paris 14eme 35m² 1- 4 personnes,,Beau 2 pieces 14eme arrondissement,,Petit studio a louer,,Studio au coeur de paris- montparnasse,,Studio Paris 14e à louer,,Studio 27m² meublé,,Studio 1 pièce 22 m²,,Studio,,Studio 1 pièce 31 m²,,Studio 1 pièce 25 m²,,Appartement 1 pièce 23 m²,,Studette meublé 9m² ALESIA,,Studio 25 m2 à Paris 14,,Appartement 17m proche métro Glacière,,2 Pièces au calme proche Montparnasse,,Studette paris 14eme,,STUDIO 26M2 PARIS 14e ALESIA,,STUDETTE 16m2 RUE D ALESIA 650 EUROS,,Studio meublé et équipé résidence Consul,,Studio 22,5 m2 Métro Pernety,,Appartement 1 pièce 19 m²,,Studio meublé avec 2 balcons Montparnasse Pernety,",""

基本上我有:

Price1,Price2,Price3... description1,description2,description3.. 

我想:

Price 1, Description1
Price 2, Description2

这是我的代码:

class LbcSpider(scrapy.Spider):
name = 'lbc'

start_urls = ['https://www.leboncoin.fr/locations/offres/ile_de_france/?th=1&location=Paris%2075014&parrot=0&mre=950&sqe=4&ret=2']
# j'étais en train de me mettre sur lbc pour scrapper les pages
def parse(self, response):
    # extraction des infos de la page 1

    yield {
        # extraction du titre
        # 'title': response.css(
        #    'a.list_item.clearfix.trackable section.item_infos h2.item_title::text').re(r'\s{20,}(.*)'),
        'title': response.css(
            'a.list_item.clearfix.trackable section.item_infos h2.item_title::text').re(r'\s{20,}(.*)'),
        # extraction prix
        'Price': response.css(
            'a.list_item.clearfix.trackable section.item_infos h3.item_price::text').re(r'\s{20,}(.*)'),
        }

    # visite des pages suivantes
    # avec for on extrait de la liste chaque url pour la parser
    # on ajoute http car pour une raison inconnue elle ne fait pas partie de l'extract?
    next_page = response.xpath('//a[@id="next"]/@href').extract()
    if next_page is not None:
        # modification pour avoir plusieurs url
        for href in next_page:
            yield scrapy.Request('http:' + href, callback=self.parse)
        # next_page = response.urljoin(next_page)
        #yield scrapy.Request(next_page, callback=self.parse)

我的问题如下:

  • 当我的代码将调用置于最后位置时,为什么价格值会出现?
  • 如何在每次通话时添加“\ n”来创建新行?

最佳,

1 个答案:

答案 0 :(得分:0)

scrapy提取器生成所有已删除项目的列表。

我认为分离抓取和返回项目会更容易,以便正确格式化输出文件,如下所示:

def parse(self, response): 
    title = # Scrape the titles
    Price = # Scrape the prices
    result = zip(title, Price)
    for title, Price in result:
        item = LbcItem()
        item['title'] = title
        item['Price'] = Price
        yield item

通过这种方式,您首先要抓取所有价格和标题,将它们存储在单独的列表中,然后再压缩它们并迭代压缩的result - 变量。

这样您就可以分配每个项目并单独生成它,这应该会产生您想要的方式。

此外,您可以通过在项目设置中定义FEED_EXPORT_FIELDS来定义在csv-export中导出项目的顺序(请参阅here