我已经尝试了JavaScript的几种变体,但没有一个能获得理想的结果。
assert(countIntegerBits(4), 3) // 100
assert(countIntegerBits(8), 4) // 1000
assert(countIntegerBits(20), 5) // 10100
assert(countIntegerBits(100), 7) // 1100100
// https://stackoverflow.com/questions/43122082/efficiently-count-the-number-of-bits-in-an-integer-in-javascript
function countIntegerBits(integer) {
var length = 0
while (integer = Math.floor(integer)) {
if (integer & 1) {
length++
}
integer /= 2
}
return length
}
function countIntegerBits(integer) {
// var length = 0
// while (integer !== 0) {
// length += countIntegerBits32(integer | 0)
// integer /= 0x100000000
// }
// return length
//
// or perhaps this:
// https://gist.github.com/everget/320499f197bc27901b90847bf9159164#counting-bits-in-a-32-bit-integer
}
function countIntegerBits32(integer) {
integer = integer - ((integer >> 1) & 0x55555555)
integer = (integer & 0x33333333) + ((integer >> 2) & 0x33333333)
return ((integer + (integer >> 4) & 0xF0F0F0F) * 0x1010101) >> 24
}
function countStringBits(string) {
// looks like this / 8 would be good enough
// https://codereview.stackexchange.com/questions/37512/count-byte-length-of-string
var length = 0;
for (var i = 0; i < normal_val.length; i++) {
var c = normal_val.charCodeAt(i);
length += c < (1 << 7) ? 1 :
c < (1 << 11) ? 2 :
c < (1 << 16) ? 3 :
c < (1 << 21) ? 4 :
c < (1 << 26) ? 5 :
c < (1 << 31) ? 6 : Number.NaN
}
return length;
}
function countFloatBits(float) {
// looks too complicated for an SO question
// http://binary-system.base-conversion.ro/real-number-converted-from-decimal-system-to-32bit-single-precision-IEEE754-binary-floating-point.php?decimal_number_base_ten=1.23&sign=0&exponent=01111111&mantissa=00111010111000010100011
}
function assert(a, b) {
if (a !== b) throw new Error(a + ' != ' + b)
}
我要避免的是这种转换为字符串的黑客行为
var length = integer.toString(2).split('').length
我唯一想到的另一件事是check if bit is set,直到到达第一个1
,然后从那里开始计数。
assert(countIntegerBits(4), 3) // 100
assert(countIntegerBits(8), 4) // 1000
assert(countIntegerBits(20), 5) // 10100
assert(countIntegerBits(100), 7) // 1100100
function countIntegerBits(integer) {
var i = 0
while (true) {
if (integer & (1 << i)) {
return 31 - i
}
i++
}
}
function assert(a, b) {
if (a !== b) throw new Error(a + ' != ' + b)
}
但这似乎不太正确,因为我不确定所有整数是否都在幕后表示为32位,例如,(4).toString(2)
给出"100"
,而不是{{1} },所以不确定。
在这里,我探索了如何以位为单位检查字符串的长度,与浮点数相同,但是如果字符串使用utf-8编码看起来很简单,那么浮点似乎是一件大事,所以我的问题是仅约整数,直至JavaScript支持的最大值。就目前的所有实际目的而言,我将仅考虑不超过10亿的整数,因此它无需考虑00000000000000000000000000000100
bigints或其他任何东西,仅考虑不超过数十亿或最多不超过10亿的数字JavaScript中的基本32位整数Max。
答案 0 :(得分:2)
自然对数(好吧,记录到任意基准)与另一基准之间有关系。要获取以2为底的日志:
const log2 = n => Math.log(n) / Math.log(2);
您想在添加1之后四舍五入。
const bits = n => Math.floor(log2(n) + 1);