我正在创建一种机制,允许用户使用decorator pattern从基本构建块中形成任意复杂的函数。这可以很好地实现功能,但我不喜欢它涉及大量虚拟调用的事实,特别是当嵌套深度变大时。它让我担心,因为复杂的功能可能经常调用(> 100.000倍)。
为了避免这个问题,我尝试将装饰器方案一旦完成就转换为std::function
(SSCCE中的cfr。to_function()
)。在构造std::function
期间,所有内部函数调用都是有线的。我认为这比原始装饰器方案评估更快,因为不需要在std::function
版本中执行虚拟查找。
std::function
更快。所以现在我想知道为什么。也许我的测试设置有问题,因为我只使用两个简单的基本函数,这意味着可以缓存vtable查找?
我使用的代码包含在下面,不幸的是它很长。
// sscce.cpp
#include <iostream>
#include <vector>
#include <memory>
#include <functional>
#include <random>
/**
* Base class for Pipeline scheme (implemented via decorators)
*/
class Pipeline {
protected:
std::unique_ptr<Pipeline> wrappee;
Pipeline(std::unique_ptr<Pipeline> wrap)
:wrappee(std::move(wrap)){}
Pipeline():wrappee(nullptr){}
public:
typedef std::function<double(double)> FnSig;
double operator()(double input) const{
if(wrappee.get()) input=wrappee->operator()(input);
return process(input);
}
virtual double process(double input) const=0;
virtual ~Pipeline(){}
// Returns a std::function which contains the entire Pipeline stack.
virtual FnSig to_function() const=0;
};
/**
* CRTP for to_function().
*/
template <class Derived>
class Pipeline_CRTP : public Pipeline{
protected:
Pipeline_CRTP(const Pipeline_CRTP<Derived> &o):Pipeline(o){}
Pipeline_CRTP(std::unique_ptr<Pipeline> wrappee)
:Pipeline(std::move(wrappee)){}
Pipeline_CRTP():Pipeline(){};
public:
typedef typename Pipeline::FnSig FnSig;
FnSig to_function() const override{
if(Pipeline::wrappee.get()!=nullptr){
FnSig wrapfun = Pipeline::wrappee->to_function();
FnSig processfun = std::bind(&Derived::process,
static_cast<const Derived*>(this),
std::placeholders::_1);
FnSig fun = [=](double input){
return processfun(wrapfun(input));
};
return std::move(fun);
}else{
FnSig processfun = std::bind(&Derived::process,
static_cast<const Derived*>(this),
std::placeholders::_1);
FnSig fun = [=](double input){
return processfun(input);
};
return std::move(fun);
}
}
virtual ~Pipeline_CRTP(){}
};
/**
* First concrete derived class: simple scaling.
*/
class Scale: public Pipeline_CRTP<Scale>{
private:
double scale_;
public:
Scale(std::unique_ptr<Pipeline> wrap, double scale) // todo move
:Pipeline_CRTP<Scale>(std::move(wrap)),scale_(scale){}
Scale(double scale):Pipeline_CRTP<Scale>(),scale_(scale){}
double process(double input) const override{
return input*scale_;
}
};
/**
* Second concrete derived class: offset.
*/
class Offset: public Pipeline_CRTP<Offset>{
private:
double offset_;
public:
Offset(std::unique_ptr<Pipeline> wrap, double offset) // todo move
:Pipeline_CRTP<Offset>(std::move(wrap)),offset_(offset){}
Offset(double offset):Pipeline_CRTP<Offset>(),offset_(offset){}
double process(double input) const override{
return input+offset_;
}
};
int main(){
// used to make a random function / arguments
// to prevent gcc from being overly clever
std::default_random_engine generator;
auto randint = std::bind(std::uniform_int_distribution<int>(0,1),std::ref(generator));
auto randdouble = std::bind(std::normal_distribution<double>(0.0,1.0),std::ref(generator));
// make a complex Pipeline
std::unique_ptr<Pipeline> pipe(new Scale(randdouble()));
for(unsigned i=0;i<100;++i){
if(randint()) pipe=std::move(std::unique_ptr<Pipeline>(new Scale(std::move(pipe),randdouble())));
else pipe=std::move(std::unique_ptr<Pipeline>(new Offset(std::move(pipe),randdouble())));
}
// make a std::function from pipe
Pipeline::FnSig fun(pipe->to_function());
double bla=0.0;
for(unsigned i=0; i<100000; ++i){
#ifdef USE_FUNCTION
// takes 110 ms on average
bla+=fun(bla);
#else
// takes 60 ms on average
bla+=pipe->operator()(bla);
#endif
}
std::cout << bla << std::endl;
}
使用pipe
:
g++ -std=gnu++11 sscce.cpp -march=native -O3
sudo nice -3 /usr/bin/time ./a.out
-> 60 ms
使用fun
:
g++ -DUSE_FUNCTION -std=gnu++11 sscce.cpp -march=native -O3
sudo nice -3 /usr/bin/time ./a.out
-> 110 ms
答案 0 :(得分:23)
你有std::function
个绑定lambda,调用std::function
绑定lamdbas,调用std::function
那个...
看看你的to_function
。它创建一个调用两个std::function
的lambda,并将该lambda绑定到另一个std::function
。编译器不会静态解析任何。
所以最后,你最终会得到与虚函数解决方案一样多的间接调用,如果你摆脱了绑定processfun
并直接在lambda中调用它。否则你有两倍的数量。
如果你想要加速,你必须以一种可以静态解析的方式创建整个管道,这意味着在最终将类型删除为单个std::function
之前需要更多模板。 / p>
答案 1 :(得分:18)
正如Sebastian Redl的回答所说,虚拟函数的“替代”通过动态绑定函数(虚拟或通过函数指针,根据std::function
实现)添加了几层间接,然后它仍然调用无论如何虚拟Pipeline::process(double)
功能!
通过删除std::function
间接层的一层并阻止对Derived::process
的调用是虚拟的,此修改使速度明显加快:
FnSig to_function() const override {
FnSig fun;
auto derived_this = static_cast<const Derived*>(this);
if (Pipeline::wrappee) {
FnSig wrapfun = Pipeline::wrappee->to_function();
fun = [=](double input){
return derived_this->Derived::process(wrapfun(input));
};
} else {
fun = [=](double input){
return derived_this->Derived::process(input);
};
}
return fun;
}
这里还有比虚拟功能版更多的工作。
答案 2 :(得分:8)
std::function
很慢;类型擦除和结果分配在此中起作用,同样,gcc
,调用被内联/优化得很严重。出于这个原因,人们试图解决这个问题的过程中存在大量的C ++“代理人”。我把一个移植到Code Review:
https://codereview.stackexchange.com/questions/14730/impossibly-fast-delegate-in-c11
但是你可以在Google上找到很多其他人,或者自己编写。
编辑:
现在,请查看here以获取快速代表。
答案 3 :(得分:6)
std :: function的libstdc ++实现大致如下:
template<typename Signature>
struct Function
{
Ptr functor;
Ptr functor_manager;
template<class Functor>
Function(const Functor& f)
{
functor_manager = &FunctorManager<Functor>::manage;
functor = new Functor(f);
}
Function(const Function& that)
{
functor = functor_manager(CLONE, that->functor);
}
R operator()(args) // Signature
{
return functor_manager(INVOKE, functor, args);
}
~Function()
{
functor_manager(DESTROY, functor);
}
}
template<class Functor>
struct FunctorManager
{
static manage(int operation, Functor& f)
{
switch (operation)
{
case CLONE: call Functor copy constructor;
case INVOKE: call Functor::operator();
case DESTROY: call Functor destructor;
}
}
}
因此尽管std::function
不知道Functor对象的确切类型,但它通过functor_manager函数指针调度重要操作,该函数指针是知道{{1}的模板实例的静态函数。 } type。
每个Functor
实例将在堆上分配其自己拥有的仿函数对象副本(除非它不大于指针,例如函数指针,在这种情况下它只是将指针保存为子对象) )。
重要的一点是,如果底层仿函数对象具有昂贵的复制构造函数和/或占用大量空间(例如保存绑定参数),则复制std::function
会很昂贵。