实时刮板|复杂的问题

时间:2017-07-17 13:44:55

标签: python excel scrapy automatic-updates

我有一个正在运行的webscraper;代码列在单独的Excel文档中。我正在使用ScrapingHub的API,因为它可以在任何地方访问,并提供了一个很大的方便因素。我想创建一个代码,用于更新和清除Excel工作表中列出的内容。

使用我的Excel列表,如何让我的代码自动更新(即我将MSFT添加到我的Excel工作表中,以便更新我的代码以包含MSFT)?

此外,是否有自动部署?

- ==蜘蛛代码== - **每个链接中附加的代码(搜索条件)

import scrapy
import collections

from collections import OrderedDict
from scrapy.spiders import XMLFeedSpider
from tickers.items import tickersItem
class Spider(XMLFeedSpider):
    name = "NewsScraper"
    allowed_domains = ["yahoo.com"]
    start_urls = (
        'https://feeds.finance.yahoo.com/rss/2.0/headline?s=ABIO,ACFN,AEMD,AEZS,AITB',
        'https://feeds.finance.yahoo.com/rss/2.0/headline?s=BGMD,BIOA',
        'https://feeds.finance.yahoo.com/rss/2.0/headline?s=CANF,CBIO,CCCR',
        'https://feeds.finance.yahoo.com/rss/2.0/headline?s=DRIO,DRWI,DXTR,ENCR',
        'https://feeds.finance.yahoo.com/rss/2.0/headline?s=GNMX,GNUS,GPL,HIPP,HSGX',
        'https://feeds.finance.yahoo.com/rss/2.0/headline?s=MBOT,MBVX',
        'https://feeds.finance.yahoo.com/rss/2.0/headline?s=NBY,NNVC,NTRP',
        'https://feeds.finance.yahoo.com/rss/2.0/headline?s=PGRX,PLXP',
        'https://feeds.finance.yahoo.com/rss/2.0/headline?s=SANW,SBOT,SCON,SCYX',
        'https://feeds.finance.yahoo.com/rss/2.0/headline?s=UNXL,UQM,URRE',
                  )
    itertag = 'item'
    def parse_node(self, response, node):
        item = collections.OrderedDict()
        item['Title'] = node.xpath(
            'title/text()').extract_first()
        item['PublishDate'] = node.xpath(
            'pubDate/text()').extract_first()
        item['Description'] = node.xpath(
            'description/text()').extract_first()      
        item['Link'] = node.xpath(
            'link/text()').extract_first()
        return item

0 个答案:

没有答案