我正在Scrapy建立一个小项目,并且是Scrapy的新手。 当我运行我的蜘蛛时,它在我的管道中显示一个异常错误:
item ['Number'] [0],exceptions.IndexError:列表索引超出范围
我的管道文件:
import sys
from scrapy.utils.python import unicode_to_str
import MySQLdb
from project2.settings import MYSQL
# the Pipeline settings.
class MySQLStorePipeline(object):
def __init__(self):
db=MySQLdb.connect(user='root', passwd='', db='project2', host='127.0.0.1', charset = "utf8", use_unicode = True)
self.c=db.cursor()
def process_item(self, item, spider):
try:
self.c.execute("""INSERT INTO crawlerapp_directory (Catogory, Bussiness_name, Description, Number, Web_url)
VALUES (%s, %s, %s, %s, %s)""",
(item['Catogory'][0],
item['Bussiness_name'][0],
item['Description'][0],
item['Number'][0],
item['Web_url'][0]))
except MySQLdb.Error, e:
print "Error %d: %s" % (e.args[0], e.args[1])
sys.exit (1)
return item
我的蜘蛛爬行正常,但它显示上述异常错误,也没有将抓取的数据保存到MySQL DB中。
请指导我解决问题。
答案 0 :(得分:1)
在访问第一个元素之前,请确保检查列表是否包含至少一个条目:value[0] if value
:
class MySQLStorePipeline(object):
def __init__(self):
db = MySQLdb.connect(host='127.0.0.1', user='root', passwd='',
db='project2', charset="utf8", use_unicode=True)
self.cursor = db.cursor()
def process_item(self, item, spider):
def Item(field):
return item.get(field)[0] if item.get(field) else ''
self.cursor.execute("""INSERT INTO crawlerapp_directory
(Category, Business_name, Description, Number, Web_url)
VALUES ('%s', '%s', '%s', %s, '%s')""", (
Item('Category'),
Item('Business_name'),
Item('Description'),
Item('Number'),
Item('Web_url'),
))
return item
答案 1 :(得分:0)
似乎item ['Number']是空的。确认它包含您想要的内容。