Отличный ресурс программирования, бит Twiddling Hacks, предлагает (здесь) следующий метод для вычисления log2 32-разрядного целого:
#define LT(n) n, n, n, n, n, n, n, n, n, n, n, n, n, n, n, n
static const char LogTable256[256] =
{
-1, 0, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3,
LT(4), LT(5), LT(5), LT(6), LT(6), LT(6), LT(6),
LT(7), LT(7), LT(7), LT(7), LT(7), LT(7), LT(7), LT(7)
};
unsigned int v; // 32-bit word to find the log of
unsigned r; // r will be lg(v)
register unsigned int t, tt; // temporaries
if (tt = v >> 16)
{
r = (t = tt >> 8) ? 24 + LogTable256[t] : 16 + LogTable256[tt];
}
else
{
r = (t = v >> 8) ? 8 + LogTable256[t] : LogTable256[v];
}
и упоминает, что
В методе таблицы поиска используется только около 7 операций для поиска журнала 32-битного значения. Если он расширен для 64-битных количеств, примерно 9 операций.
но, увы, не дает никакой дополнительной информации о том, каким образом следует перейти к расширению алгоритма до 64-битных целых чисел.
Любые подсказки о том, как выглядит такой 64-битный алгоритм?