我有一个嵌套python字典形式的完整倒排索引。其结构是:
{word : { doc_name : [location_list] } }
例如,让字典称为索引,然后对于单词“spam”,条目看起来像:
{ spam : { doc1.txt : [102,300,399], doc5.txt : [200,587] } }
我使用这种结构,因为python dict已经过优化,它使编程更容易。
对于任何“垃圾邮件”这个词,包含它的文件可以通过以下方式给出:
index['spam'].keys()
和文档doc1的发布列表:
index['spam']['doc1']
目前我正在使用cPickle来存储和加载这本词典。但是pickle文件大约是380 MB并且需要很长时间才能加载 - 112秒(大约我使用 time.time()计时)并且内存使用量达到1.2 GB(Gnome系统监视器) 。一旦它加载,它的罚款。我有4GB内存。
len(index.keys())
给出229758
import cPickle as pickle
f = open('full_index','rb')
print 'Loading index... please wait...'
index = pickle.load(f) # This takes ages
print 'Index loaded. You may now proceed to search'
如何让它加载更快?我只需要在应用程序启动时加载一次。之后,访问时间对于响应查询很重要。
我应该切换到像SQLite这样的数据库并在其键上创建索引吗?如果是,我如何存储值以具有等效模式,这使得检索变得容易。还有什么我应该研究的吗?
使用蒂姆的答案pickle.dump(index, file, -1)
腌制文件相当小 - 大约237 MB(需要300秒才能转储)......现在需要一半的时间来加载(61秒......而不是112秒)更早...... time.time())
但是我应该迁移到数据库以获得可伸缩性吗?
至于现在,我正在接受Tim的回答。
PS:我不想使用Lucene或Xapian ...... 这个问题提到Storing an inverted index。我不得不问一个新问题,因为我无法删除之前的问题。答案 0 :(得分:12)
使用cPickle.dump
/ cPickle.dumps
时尝试使用协议参数。来自cPickle.Pickler.__doc__
:
Pickler(file,protocol = 0) - 创建一个pickler。
这需要一个类似文件的对象来编写pickle数据流。 可选的proto参数告诉pickler使用给定的 协议;支持的协议是0,1,2。默认 协议为0,向后兼容。 (协议0是 只能写入文本中打开的文件的协议 模式并成功回读。使用更高的协议时 小于0,确保文件以二进制模式打开,两者都是 酸洗和去除。)
协议1比协议0更有效;协议2是 比协议1更有效。
指定否定协议版本选择最高版本 协议版本支持。协议使用的越高, 最近需要读取pickle的Python版本 产生的。
file参数必须具有接受单个的write()方法 字符串参数。因此它可以是一个打开的文件对象,一个StringIO 对象或满足此接口的任何其他自定义对象。
转换JSON或YAML可能需要比大多数时间的酸洗更长的时间 - pickle存储本机Python类型。
答案 1 :(得分:5)
你真的需要它一次加载吗?如果您不需要内存中的所有内容,但只需要在任何给定时间选择所需的部分,您可能希望将字典映射到磁盘上的一组文件而不是单个文件...或将字典映射到a数据库表。因此,如果您正在寻找能够将大型数据字典保存到磁盘或数据库的东西,并且可以利用酸洗和编码(编解码器和散列图),那么您可能需要查看klepto
。
klepto
提供了用于写入数据库的字典抽象,包括将文件系统视为数据库(即将整个字典写入单个文件,或将每个条目写入其自己的文件)。对于大数据,我经常选择将字典表示为我的文件系统上的目录,并将每个条目都作为文件。 klepto
还提供缓存算法,因此如果您使用字典的文件系统后端,则可以通过利用内存缓存来避免速度损失。
>>> from klepto.archives import dir_archive
>>> d = {'a':1, 'b':2, 'c':map, 'd':None}
>>> # map a dict to a filesystem directory
>>> demo = dir_archive('demo', d, serialized=True)
>>> demo['a']
1
>>> demo['c']
<built-in function map>
>>> demo
dir_archive('demo', {'a': 1, 'c': <built-in function map>, 'b': 2, 'd': None}, cached=True)
>>> # is set to cache to memory, so use 'dump' to dump to the filesystem
>>> demo.dump()
>>> del demo
>>>
>>> demo = dir_archive('demo', {}, serialized=True)
>>> demo
dir_archive('demo', {}, cached=True)
>>> # demo is empty, load from disk
>>> demo.load()
>>> demo
dir_archive('demo', {'a': 1, 'c': <built-in function map>, 'b': 2, 'd': None}, cached=True)
>>> demo['c']
<built-in function map>
>>>
klepto
还有其他标记,例如compression
和memmode
,可用于自定义数据的存储方式(例如压缩级别,内存映射模式等)。
使用(MySQL等)数据库作为后端而不是文件系统同样容易(相同的界面)。您还可以关闭内存缓存,因此只需设置cached=False
,每次读/写都会直接进入存档。
klepto
, keymap
可以自定义您的编码。
>>> from klepto.keymaps import *
>>>
>>> s = stringmap(encoding='hex_codec')
>>> x = [1,2,'3',min]
>>> s(x)
'285b312c20322c202733272c203c6275696c742d696e2066756e6374696f6e206d696e3e5d2c29'
>>> p = picklemap(serializer='dill')
>>> p(x)
'\x80\x02]q\x00(K\x01K\x02U\x013q\x01c__builtin__\nmin\nq\x02e\x85q\x03.'
>>> sp = s+p
>>> sp(x)
'\x80\x02UT28285b312c20322c202733272c203c6275696c742d696e2066756e6374696f6e206d696e3e5d2c292c29q\x00.'
klepto
还提供了许多缓存算法(如mru
,lru
,lfu
等),以帮助您管理内存缓存,并且使用算法执行转储并加载到归档后端。
您可以使用标志cached=False
完全关闭内存缓存,并直接读写磁盘或数据库。如果您的条目足够大,您可以选择写入磁盘,将每个条目放在其自己的文件中。这是两个例子。
>>> from klepto.archives import dir_archive
>>> # does not hold entries in memory, each entry will be stored on disk
>>> demo = dir_archive('demo', {}, serialized=True, cached=False)
>>> demo['a'] = 10
>>> demo['b'] = 20
>>> demo['c'] = min
>>> demo['d'] = [1,2,3]
然而,虽然这会大大减少加载时间,但它可能会使整体执行速度降低一些......通常最好指定内存缓存中保留的最大数量并选择一个好的缓存算法。您必须使用它来获得满足您需求的正确平衡。
在此处获取klepto
:https://github.com/uqfoundation
答案 2 :(得分:3)
Python 2.x中的一个常见模式是在纯Python中实现一个版本的模块,并将可选的加速版本实现为C扩展;例如,pickle
和cPickle
。这会导致导入加速版本的负担,并在这些模块的每个用户上回退到纯Python版本。 在Python 3.0 中,加速版本被视为纯Python版本的实现细节。 用户应始终导入标准版本,该版本会尝试导入加速版本并回退到纯Python版本。 The pickle / cPickle pair received this treatment.
如果您的字典很大并且只能与Python 3.4或更高版本兼容,请使用:
pickle.dump(obj, file, protocol=4)
pickle.load(file, encoding="bytes")
或:
Pickler(file, 4).dump(obj)
Unpickler(file).load()
尽管如此,in 2010 json
模块的编码速度提高了25倍,解码简单类型的速度提高了15倍。pickle
。 My 2014 benchmark说marshal
&gt; pickle
&gt; json
,但marshal's
coupled to specific Python versions。
答案 3 :(得分:0)
您是否尝试使用其他存储格式,例如YAML或JSON? Python使用我认为的json
模块本地支持来自Python 2.6的JSON,并且有third party modules for YAML。
您也可以尝试shelve
模块。
答案 4 :(得分:0)
取决于你需要花费多长时间来考虑你必须做出的权衡:要么在(长期)启动之后将所有数据准备好在内存中,要么只加载部分数据(然后你需要拆分)多个文件中的日期或使用SQLite或类似的东西)。我怀疑从前面加载所有数据sqlite进入字典会带来任何改进。