pickle.dump遇到RuntimeError:cmp中超出了最大递归深度

时间:2014-03-25 05:20:07

标签: python recursion pickle

我注意到它可能是由beautifulsoup或递归数据结构引起的。但是,导致错误的数据结构似乎没有问题:

class Movie:
def __init__(self, name="", dscore=0, mscore=0, durl="", murl=""): 
    self.name = name
    self.dscore = float(dscore)
    self.mscore = float(mscore)
    self.durl = durl
    self.murl = murl
def __str__(self):
    return unicode(self.name) + u' / ' + unicode(self.dscore) + u' / ' + unicode(self.mscore) \
        + u' / ' + unicode(self.durl) + u' / ' + unicode(self.murl)

导致问题的陈述是:

DataDict['MovieInfo'] = MovieInfo

pickle.dump(DataDict, f, True)

以下是功能:

def SaveData():
global LinkUrlQueue
global MovieSet
global MovieInfo
global LinkUrlSet
global MovieUrlQueue
DataDict = {}
DataDict['LinkUrlSet'] = LinkUrlSet
DataDict['MovieSet'] = MovieSet
#DataDict['MovieInfo'] = MovieInfo
DataDict['LinkUrlQueue'] = LinkUrlQueue
DataDict['MovieUrlQueue'] = MovieUrlQueue
f = open('MovieInfo.txt', 'wb')

for item in MovieInfo:
    f.write(item.__str__().encode('utf8') + '\n'.encode('utf8'))
f.close()
try:
    print 'saving data...'
    f = open('spider.dat', 'wb')
    pickle.dump(DataDict, f, True)
    f.close()
except IOError as e:
    print 'IOError, error no: %d' % e.no
    print 'saved to spider2.dat'
    pickle.dump(DataDict, open('spider2.dat', 'wb'))
    time.sleep(10)

我的完整源代码:

spider.py: http://paste.ubuntu.com/7149731/

fetch.py​​: http://paste.ubuntu.com/7149732/

您可以下载并运行。

此外,欢迎任何编码风格的建议

1 个答案:

答案 0 :(得分:9)

嗯......我终于自己解决了这个问题......

出现这个问题的原因是泡菜无法处理BEAUTIFULSOUP!通常,它无法处理html解析器。

我意识到在将参数传递给我的函数时,我应该将它们转换为str()或unicode()然后进行赋值,而不是将它们保留为beautifulsoup对象...

感谢大家〜