在x86 / x86-64上写入比特流的最快方法是什么? (代码字< = 32bit)
通过写一个比特流,我指的是将可变比特长度符号连接成一个连续的内存缓冲区的过程。
目前我有一个带有32位中间缓冲区的标准容器要写入
void write_bits(SomeContainer<unsigned int>& dst,unsigned int& buffer, unsigned int& bits_left_in_buffer,int codeword, short bits_to_write){
if(bits_to_write < bits_left_in_buffer){
buffer|= codeword << (32-bits_left_in_buffer);
bits_left_in_buffer -= bits_to_write;
}else{
unsigned int full_bits = bits_to_write - bits_left_in_buffer;
unsigned int towrite = buffer|(codeword<<(32-bits_left_in_buffer));
buffer= full_bits ? (codeword >> bits_left_in_buffer) : 0;
dst.push_back(towrite);
bits_left_in_buffer = 32-full_bits;
}
}
有没有人知道任何可能有用的优化,快速指令或其他信息?
干杯,
答案 0 :(得分:6)
我曾经编写了一个非常快速的实现,但它有一些限制:当你编写和读取比特流时,它可以在32位x86上运行。我不在这里检查缓冲区限制,我正在分配更大的缓冲区并不时从调用代码中检查它。
unsigned char* membuff;
unsigned bit_pos; // current BIT position in the buffer, so it's max size is 512Mb
// input bit buffer: we'll decode the byte address so that it's even, and the DWORD from that address will surely have at least 17 free bits
inline unsigned int get_bits(unsigned int bit_cnt){ // bit_cnt MUST be in range 0..17
unsigned int byte_offset = bit_pos >> 3;
byte_offset &= ~1; // rounding down by 2.
unsigned int bits = *(unsigned int*)(membuff + byte_offset);
bits >>= bit_pos & 0xF;
bit_pos += bit_cnt;
return bits & BIT_MASKS[bit_cnt];
};
// output buffer, the whole destination should be memset'ed to 0
inline unsigned int put_bits(unsigned int val, unsigned int bit_cnt){
unsigned int byte_offset = bit_pos >> 3;
byte_offset &= ~1;
*(unsigned int*)(membuff + byte_offset) |= val << (bit_pos & 0xf);
bit_pos += bit_cnt;
};
答案 1 :(得分:3)
一般来说很难回答,因为它取决于许多因素,例如您正在阅读的位大小的分布,客户端代码中的调用模式以及硬件和编译器。通常,从比特流中读取(写入)的两种可能方法是:
write_bits
方法所采用的方法。(1)的主要优点包括:
read_bits
调用,编译器可能会组合很多逻辑并生成一些非常快的代码。 (2)的主要优点是它完全可以预测 - 它不包含不可预测的分支。
仅仅因为(2)只有一个优点并不意味着它更糟糕:这种优势很容易压倒其他一切。
特别是,您可以基于两个因素分析算法的可能分支行为:
例如,如果您在50%的时间内读取1位,在50%的时间内读取2位,则在进行基础读取之前,您将执行64 / 1.5 = ~42
次读取(如果可以使用64位缓冲区)。这有利于方法(1),因为即使误预测,底层的读取也很少。另一方面,如果您通常读取20多位,您将从每次调用的基础读取。这可能有利于方法(2),除非基础读取的模式是非常可预测的。例如,如果您总是在22到30位之间读取,那么您可能总是将完全三次调用以耗尽缓冲区并读取基础 1 数组。因此,该分支将得到很好的预测,并且(1)将保持快速。
类似地,它取决于您如何调用这些方法,以及编译器如何内联和简化代码。特别是如果您使用编译时常量大小重复调用方法,则可以进行大量简化。在编译时已知代码字,几乎没有简化。
最后,您可以通过提供更复杂的API来提高性能。这主要适用于实施选项(1)。例如,您可以提供ensure_available(unsigned size)
调用,以确保可以读取至少size
位(通常限制缓冲区大小)。然后,您可以使用未检查缓冲区大小的未经检查的调用来读取该位数。这可以通过强制缓冲区填充到可预测的计划来帮助您减少错误预测,并允许您编写更简单的未经检查的方法。
1 这取决于你的“读取底层”例程的具体方式,因为这里有一些选项:有些总是填充到64位,有些填充到57到64之间 - 位(即读取整数个字节),有些可能填充32或33和64位(就像读取32位块的示例一样)。
答案 2 :(得分:2)
你可能要等到2013年才能获得真正的硬件,但是"Haswell" new instructions会带来正确的向量化移位(即将每个向量元素按照另一个向量中指定的不同量移位的能力)到x86 / AVX。不确定细节(有足够的时间来弄清楚它们),但这肯定会在比特流构造代码中实现大规模的性能提升。
答案 3 :(得分:1)
我没有时间为你写(不太确定你的样本实际上是否足够完成)但如果你必须,我能想到
使用转换表进行各种输入/输出位移偏移;这种优化对n
位的固定单位有意义(n
足够大(8位?)以期望性能提升)
从本质上讲,你可以做到
destloc &= (lookuptable[bits_left_in_buffer][input_offset][codeword]);
免责声明:这是非常草率的伪代码,我只是希望它传达我的查询表的想法o阻止bitshift算术
XLAT
,但是再一次,一个好的编译器可能已经使用了类似的东西)
;此外,XLAT似乎限于8位和AL寄存器,所以它并不是真正的多功能警告:请务必使用分析器并测试优化的正确性和速度。使用查找表可以根据引用的局部性导致较差的性能。因此,您可能需要更改单个核心上的位流线程(设置线程关联)以获得好处,并且您可能必须使查找表大小适应处理器的L2缓存。
Als,看看SIMD,SSE4或GPU (CUDA)指令集,如果您知道您将拥有某些功能。