您好。我正在尝试就地对索引文件进行排序。该文件由14B数据块组成,通常太大而无法加载到RAM中。第一个8B是我想要排序的字节。我实现了一个Heapsort算法,到目前为止除了性能都很好!
我想知道我的实现是否可以改进,以及如何通过使用一些RAM来加快这个过程。我在考虑可能将堆部分保留在RAM中,但我不确定它是如何工作的。
到目前为止我的代码:
#ifndef SORTIDX_H
#define SORTIDX_H
// Includes
#include <atomic>
#include <fstream>
#include <iostream>
#include <limits>
#include <string>
#include <thread>
// Constants
constexpr size_t hashSize = 8;
constexpr size_t offsetSize = 6;
constexpr size_t writeSize = hashSize + offsetSize;
// Typedefs & Structs
typedef std::lock_guard<std::mutex> scoped_lock;
struct IndexEntry {
unsigned char hash[hashSize]; // First 64 bits of the hash
unsigned char position[offsetSize]; // Position of word in dictionary (48-bit little endian integer)
} __attribute__( (__packed__) );
// Functions
bool operator>( const IndexEntry &rhs, const IndexEntry &lhs );
constexpr size_t getParent( size_t i ) {
return (i - 1) / 2;
}
constexpr size_t getLeft( size_t i ) {
return i * 2 + 1;
}
constexpr size_t getRight( size_t i ) {
return i * 2 + 2;
}
void sortIDX( std::string idxFile );
void heapifyIDX( size_t heapifyLimit );
void sortIDXHeap( size_t numDataSets );
void readData( IndexEntry* entry, size_t pos );
void writeData( IndexEntry* entry, size_t pos );
bool isInHeap( size_t pos );
void orderHeap( IndexEntry &top, size_t posTop );
#endif
#include "sortidx.h"
using namespace std;
streampos fileSize;
size_t numDataSets;
size_t limit;
atomic<size_t> pos;
fstream* file;
bool operator>( const IndexEntry &rhs, const IndexEntry &lhs ) {
for ( size_t i = 0; i < hashSize; i++ ) {
if ( rhs.hash[i] > lhs.hash[i] )
return true;
else if ( rhs.hash[i] < lhs.hash[i] )
return false;
}
return false;
}
void sortIDX( string idxFile ) {
file = new fstream( idxFile, ios::in | ios::out | ios::binary | ios::ate );
fileSize = file->tellg();
numDataSets = fileSize / writeSize;
limit = numDataSets - 1;
const size_t localLimit = limit;
const size_t heapifyLimit = getParent( limit );
thread* sorterThread;
sorterThread = new thread( heapifyIDX, heapifyLimit );
while ( pos <= heapifyLimit ) {
// Some progressbar stuff (uses pos)
}
sorterThread->join();
delete sorterThread;
pos = 0;
sorterThread = new thread( sortIDXHeap, localLimit );
while ( pos < localLimit ) {
// Some progressbar stuff (uses pos)
}
sorterThread->join();
delete sorterThread;
file->close();
delete file;
}
void heapifyIDX( size_t heapifyLimit ) {
IndexEntry top;
size_t posTop;
for ( pos = 0; pos <= heapifyLimit; pos++ ) {
posTop = heapifyLimit - pos;
readData( &top, posTop );
orderHeap( top, posTop );
}
}
void sortIDXHeap( size_t numDataSets ) {
IndexEntry last;
IndexEntry top;
size_t posLast;
size_t posTop;
for ( pos = 0; pos < numDataSets; pos++ ) {
posLast = numDataSets - pos;
posTop = 0;
limit = posLast - 1;
readData( &last, posTop );
readData( &top, posLast );
writeData( &last, posLast );
orderHeap( top, posTop );
}
}
void readData( IndexEntry* entry, size_t pos ) {
file->seekg( pos * writeSize );
file->read( (char*)entry, writeSize );
}
void writeData( IndexEntry* entry, size_t pos ) {
file->seekp( pos * writeSize );
file->write( (char*)entry, writeSize );
}
bool isInHeap( size_t pos ) {
return pos <= limit;
}
void orderHeap( IndexEntry &top, size_t posTop ) {
static IndexEntry left;
static IndexEntry right;
static size_t posLeft;
static size_t posRight;
static bool swapped;
do {
posLeft = getLeft( posTop );
posRight = getRight( posTop );
if ( isInHeap( posLeft ) ) {
readData( &left, posLeft );
if ( isInHeap( posRight ) ) {
readData( &right, posRight );
if ( right > left ) {
if ( right > top ) {
writeData( &right, posTop );
posTop = posRight;
swapped = true;
} else {
swapped = false;
}
} else {
if ( left > top ) {
writeData( &left, posTop );
posTop = posLeft;
swapped = true;
} else {
swapped = false;
}
}
} else {
if ( left > top ) {
writeData( &left, posTop );
posTop = posLeft;
swapped = true;
} else {
swapped = false;
}
}
} else {
swapped = false;
}
} while ( swapped );
writeData( &top, posTop );
}
我希望你能帮助我解决一段时间以来一直困扰我的问题 我正在实现一个简单的查找表来快速搜索文件。我目前的问题是索引文件。目前我正在遍历数据文件并创建我的索引条目,其中包含我要查找的8个字节的数据,后跟6个字节的数据,指示该数据集在原始文件中的位置。所以我的索引文件由14个字节的数据块组成。现在我想对该文件进行排序,以便通过在索引文件中进行二进制搜索来轻松找到我的数据。到目前为止,这是我正在努力的部分。
我需要按照前8个字节对这14个字节的条目进行排序。只按前8个字节排序不应该是一个太大的问题。我对如何对文件本身进行排序感到困惑
我想要为文件实现一个“迭代器”类,所以我可以将它传递给std::sort
,这应该可以很好地完成工作。但是因为我不确定我应该提供哪些接口才能工作,我也无法阅读当前的进展,我做了一些研究,并且提醒了Heapsort算法,因为它有O(n*log(n))
,听起来非常好。就地,我可以很好地估计进展。
到目前为止一切顺利。由于我不确定在文件中交换几个字节数据的最佳方法,我仍然对实际的实现有点困惑。此外,我很想知道您是否有关于如何对此文件进行排序的替代建议,因为索引文件的大小为几GB,性能非常重要!
答案 0 :(得分:0)
为什么需要就地排序?您的光盘应该没有问题来存储另一个17 GB的文件。
我会这样排序。
以RAM中可处理的块读取文件。在该块上使用您想要的任何排序算法(例如快速排序,堆排序,......)
将已排序的块写入had盘(在每个块的单独文件中)
在您到达数据末尾之前转到1
合并块的已排序文件,并将整体排序结果写为最终排序文件。
删除已排序的块文件。
答案 1 :(得分:0)
由于数组的前几个元素被访问最多,我决定将第一个元素加载到RAM中,直到达到限制(传递参数)。我修改了我的代码的实现:
// ...
size_t arraySize = 0;
IndexEntry* cacheArray;
void readIntoArray( size_t numElements ) {
if ( arraySize != 0 )
writeFromArray();
arraySize = numElements;
cacheArray = new IndexEntry[arraySize];
file->seekg( 0 );
for ( size_t i = 0; i < arraySize; i++ ) {
file->read( (char*)(cacheArray + i), writeSize );
}
}
void writeFromArray() {
file->seekp( 0 );
for ( size_t i = 0; i < arraySize; i++ ) {
file->write( (char*)(cacheArray + i), writeSize );
}
arraySize = 0;
delete[] cacheArray;
}
void sortIDX( string idxFile, size_t cacheSize, bool quiet ) {
// ...
cacheSize /= writeSize;
readIntoArray( min(cacheSize, numDataSets) );
sorterThread = new thread( heapifyIDX, heapifyLimit );
// ...
sorterThread->join();
delete sorterThread;
writeFromArray();
file->close();
delete file;
}
void readData( IndexEntry* entry, size_t pos ) {
if ( pos < arraySize ) {
*entry = cacheArray[pos];
} else {
file->seekg( pos * writeSize );
file->read( (char*)entry, writeSize );
}
}
void writeData( IndexEntry* entry, size_t pos ) {
if ( pos < arraySize ) {
cacheArray[pos] = *entry;
} else {
file->seekp( pos * writeSize );
file->write( (char*)entry, writeSize );
}
}