我知道我们可以通过以下方式将字符串转换为bitset:
std::bitset<8> my_bitset(std::string("00011100");
但是如果字符串被用户或某个文件视为输入,并且字符串的大小可能会有所不同。
在上面的例子中,我们知道字符串的大小是8,所以我们将bitset size初始化为8。
我尝试传递字符串的大小但是出现了编译错误。
答案 0 :(得分:0)
这个问题可以更普遍地重新描述为,&#34;如何使用运行时属性执行编译时生成的代码?&#34;
基本答案是构建一个指向执行工作的模板化函数的编译时指针数组,然后索引到该数组中。
#include <bitset>
#include <cstdint>
#include <array>
#include <utility>
// define the parameters of supported lengths
struct traits
{
static const std::size_t lowest = 1;
static const std::size_t highest = 64;
static const std::size_t extent = (highest - lowest) + 1;
};
//
// use a bitset of some length to decode the string
//
template<std::size_t Bits>
unsigned long long decode_impl(std::string const& s)
{
std::bitset<Bits> bs(s);
return bs.to_ullong();
}
//
// build an array of pointers to the decode functions, one for each Is
//
template<std::size_t...Is>
constexpr std::array<unsigned long long (*)(std::string const&), traits::extent>
decoders(std::index_sequence<Is...>)
{
return {{
&decode_impl<Is + traits::lowest>...
}};
}
//
// build all pointers
//
std::array<unsigned long long (*)(std::string const&), traits::extent>
constexpr decoders()
{
return decoders(std::make_index_sequence<traits::extent>());
}
//
// use runtime attributes to switch into compile-time constructs
//
unsigned long long decode(std::string const& s)
{
static constexpr auto my_decoders = decoders();
auto sz = std::max(s.size(), traits::lowest);
if (sz > traits::highest)
throw std::logic_error("unsupported length");
return my_decoders[sz - traits::lowest](s);
}