在过去,我不得不处理大文件,大约在0.1-3GB范围内。并非所有“列”都需要,因此可以将剩余数据放入RAM中。 现在我必须处理1-20GB范围内的文件,它们可能会随着时间的推移而增长。这完全不同,因为您无法再将数据放入RAM中。
我的文件包含数百万个“条目”(我找到了一个包含30个条目的条目)。入口包含大约10个“列”:一个字符串(50-1000个unicode字符)和几个数字。我必须按“列”对数据进行排序并显示它。对于用户,只有顶部条目(1-30%)是相关的,其余的是低质量数据。
所以,我需要一些关于朝哪个方向发展的建议。我绝对不希望将数据放入数据库中,因为它们很难为非计算机精通人员安装和配置。我喜欢提供一个单一的程序。
显示数据并不困难。但排序......无需在RAM中加载数据,在普通PC(2-6GB RAM)上......将会耗费一些时间。
我看了一下MMF(内存映射文件),但Danny Thorpe的这篇文章表明它可能不合适:http://dannythorpe.com/2004/03/19/the-hidden-costs-of-memory-mapped-files/
所以,我在考虑只加载必须在ram中排序的列中的数据和指向'entry'的地址(到磁盘文件中)的指针。我对“列”进行排序,然后使用指针找到与每个列单元格对应的条目并恢复该条目。 “恢复”将直接写入磁盘,因此不需要额外的RAM。
PS:我正在寻找一种适用于Lazarus和Delphi的解决方案,因为Lazarus(实际上是FPC)对Mac有64位支持。 64位表示可用RAM更多=排序更快。
答案 0 :(得分:13)
我认为一种方法是Mergesort,它是一种很好的排序算法 内存有限的大量固定记录。
总体思路:
重复下N行以获取文件2
...
到达输入文件的末尾,您现在有M个文件(每个文件都已排序)
您还可以考虑基于嵌入式数据库的解决方案,例如: Firebird embedded:它适用于Delphi / Windows,您只需在程序文件夹中添加一些DLL(我不确定Lazarus/OSX)。
答案 1 :(得分:5)
如果您只需要整个数据的一小部分,请按顺序扫描文件并仅保留显示所需的条目。 F.I.假设您只需要300万个条目。扫描文件中的前300个条目并在内存中对它们进行排序。然后为每个剩余的条目检查它是否低于内存中的最低值并跳过它。如果它作为内存中的最低条目更高,则将其插入300内的正确位置并丢弃最低值。这将使第二低的最低。重复直到文件结束。
答案 2 :(得分:4)
实际上,没有排序算法可以快速移动30gb的随机排序数据。
如果您需要以多种方式进行排序,那么诀窍就是根本不移动数据本身,而是为每个需要排序的列创建索引。
我这样做的文件也长达数十亿字节,用户可以对数据进行排序,滚动和搜索,而不会注意到它们是一个庞大的数据集。
答案 3 :(得分:3)
请使用稍微优化的合并排序对文件进行排序here a class。几年前我写这篇文章是为了好玩。它使用跳过列表对内存中的文件进行排序。
编辑:论坛是德语,你必须注册(免费)。这是安全的,但需要一点德国知识。
答案 4 :(得分:2)
如果您无法将数据放入主内存,那么您将进入external sorting领域。通常,这涉及外部合并排序。在内存中逐个排列较小的数据块,然后写回磁盘。然后合并这些块。