Scrapy ProgrammingError:并非所有参数都在SQL语句中使用

时间:2015-01-21 18:28:20

标签: python mysql web-scraping scrapy pipeline

我面临的问题是Scrapy代码,特别是管道向我提出了编程错误 mysql.connector.errors.ProgrammingError: Not all parameters were used in the SQL statement'

这是我的管道代码:

import csv
from scrapy.exceptions import DropItem
from scrapy import log
import sys
import mysql.connector

class CsvWriterPipeline(object):

    def __init__(self):
        self.connection = mysql.connector.connect(host='localhost', user='test', password='test', db='test')
        self.cursor = self.connection.cursor()

    def process_item(self, item, spider):
        self.cursor.execute("SELECT title, url FROM items WHERE title= %s", item['title'])
        result = self.cursor.fetchone()
        if result:

            log.msg("Item already in database: %s" % item, level=log.DEBUG)
        else:
            self.cursor.execute(
               "INSERT INTO items (title, url) VALUES (%s, %s)",
                    (item['title'][0], item['link'][0]))
            self.connection.commit()

            log.msg("Item stored : " % item, level=log.DEBUG)
        return item

    def handle_error(self, e):
            log.err(e)

当我运行蜘蛛时,它给了我这个确切的错误。  http://hastebin.com/xakotugaha.py

正如你所看到的,它明显地爬行,所以我怀疑蜘蛛有什么问题。

我目前正在使用带有MySql数据库的Scrapy网络爬虫。谢谢你的帮助。

1 个答案:

答案 0 :(得分:1)

在进行SELECT查询时发生错误。查询中有一个占位符,但item['title']是一个字符串列表 - 它有多个值:

self.cursor.execute("SELECT title, url FROM items WHERE title= %s", item['title'])

根本问题实际上是来自蜘蛛。不需要使用多个链接和标题返回单个项目 - 您需要为每个链接和标题返回单独的项目。


以下是应该适合您的蜘蛛代码:

import scrapy

from scrapycrawler.items import DmozItem


class DmozSpider(scrapy.Spider):
    name = "dmoz"
    allowed_domains = ["snipplr.com"]

    def start_requests(self):
        for i in range(1, 146):
            yield self.make_requests_from_url("https://snipt.net/public/?page=%d" % i)

    def parse(self, response):
        for sel in response.xpath('//article/div[2]/div/header/h1/a'):
            item = DmozItem()
            item['title'] = sel.xpath('text()').extract()
            item['link'] = sel.xpath('@href').extract()
            yield item