如何在不指定位大小的情况下将字符串转换为bitset?

时间:2016-09-05 15:01:09

标签: c++ bitset

我知道我们可以通过以下方式将字符串转换为bitset:

std::bitset<8> my_bitset(std::string("00011100");

但是如果字符串被用户或某个文件视为输入,并且字符串的大小可能会有所不同。

在上面的例子中,我们知道字符串的大小是8,所以我们将bitset size初始化为8。

我尝试传递字符串的大小但是出现了编译错误。

1 个答案:

答案 0 :(得分:0)

这个问题可以更普遍地重新描述为,&#34;如何使用运行时属性执行编译时生成的代码?&#34;

基本答案是构建一个指向执行工作的模板化函数的编译时指针数组,然后索引到该数组中。

#include <bitset>
#include <cstdint>
#include <array>
#include <utility>

// define the parameters of supported lengths
struct traits
{
  static const std::size_t lowest = 1;
  static const std::size_t highest = 64;
  static const std::size_t extent = (highest - lowest) + 1;
};

//
// use a bitset of some length to decode the string
//
template<std::size_t Bits>
unsigned long long decode_impl(std::string const& s)
{
  std::bitset<Bits> bs(s);
  return bs.to_ullong();
}

//
// build an array of pointers to the decode functions, one for each Is
//
template<std::size_t...Is>
constexpr std::array<unsigned long long (*)(std::string const&), traits::extent>
decoders(std::index_sequence<Is...>)
{
  return {{
    &decode_impl<Is + traits::lowest>...
  }};
}

//
// build all pointers
//
std::array<unsigned long long (*)(std::string const&), traits::extent>
constexpr decoders()
{
  return decoders(std::make_index_sequence<traits::extent>());
}

//
// use runtime attributes to switch into compile-time constructs
//
unsigned long long decode(std::string const& s)
{
  static constexpr auto my_decoders = decoders();

  auto sz = std::max(s.size(), traits::lowest);
  if (sz > traits::highest)
    throw std::logic_error("unsupported length");
  return my_decoders[sz - traits::lowest](s);

}