我面临的问题是Scrapy代码,特别是管道向我提出了编程错误
mysql.connector.errors.ProgrammingError: Not all parameters were used in the SQL statement'
这是我的管道代码:
import csv
from scrapy.exceptions import DropItem
from scrapy import log
import sys
import mysql.connector
class CsvWriterPipeline(object):
def __init__(self):
self.connection = mysql.connector.connect(host='localhost', user='test', password='test', db='test')
self.cursor = self.connection.cursor()
def process_item(self, item, spider):
self.cursor.execute("SELECT title, url FROM items WHERE title= %s", item['title'])
result = self.cursor.fetchone()
if result:
log.msg("Item already in database: %s" % item, level=log.DEBUG)
else:
self.cursor.execute(
"INSERT INTO items (title, url) VALUES (%s, %s)",
(item['title'][0], item['link'][0]))
self.connection.commit()
log.msg("Item stored : " % item, level=log.DEBUG)
return item
def handle_error(self, e):
log.err(e)
当我运行蜘蛛时,它给了我这个确切的错误。 http://hastebin.com/xakotugaha.py
正如你所看到的,它明显地爬行,所以我怀疑蜘蛛有什么问题。
我目前正在使用带有MySql数据库的Scrapy网络爬虫。谢谢你的帮助。
答案 0 :(得分:1)
在进行SELECT查询时发生错误。查询中有一个占位符,但item['title']
是一个字符串列表 - 它有多个值:
self.cursor.execute("SELECT title, url FROM items WHERE title= %s", item['title'])
根本问题实际上是来自蜘蛛。不需要使用多个链接和标题返回单个项目 - 您需要为每个链接和标题返回单独的项目。
以下是应该适合您的蜘蛛代码:
import scrapy
from scrapycrawler.items import DmozItem
class DmozSpider(scrapy.Spider):
name = "dmoz"
allowed_domains = ["snipplr.com"]
def start_requests(self):
for i in range(1, 146):
yield self.make_requests_from_url("https://snipt.net/public/?page=%d" % i)
def parse(self, response):
for sel in response.xpath('//article/div[2]/div/header/h1/a'):
item = DmozItem()
item['title'] = sel.xpath('text()').extract()
item['link'] = sel.xpath('@href').extract()
yield item