我在caffe(C ++)中编写了一个自定义图层。在运行此代码(训练使用此层的模型)时,将调用设置层(层的"LayerSetUp"
方法)(通过编写一段代码来验证,该代码将在硬盘上创建文件并转储一些数据)。但是Forward_cpu()
和Backward_cpu()
方法似乎在执行期间不会被调用。可能的原因是什么?
这是运行模型到火车的输出,它使用这个自定义损失层。
...
I0715 09:23:57.415463 31256 net.cpp:84] Creating Layer loss
I0715 09:23:57.415472 31256 net.cpp:406] loss <- permute_conv11
I0715 09:23:57.415482 31256 net.cpp:406] loss <- bbox
I0715 09:23:57.415495 31256 net.cpp:380] loss -> loss
I0715 09:23:57.433014 31256 layer_factory.hpp:77] Creating layer loss
I0715 09:23:57.437386 31256 layer_factory.hpp:77] Creating layer loss
I0715 09:23:57.438171 31256 layer_factory.hpp:77] Creating layer loss
I0715 09:23:57.438897 31256 layer_factory.hpp:77] Creating layer loss
I0715 09:23:57.438989 31256 layer_factory.hpp:77] Creating layer loss
I0715 09:23:57.440030 31256 net.cpp:122] Setting up loss
I0715 09:23:57.440052 31256 net.cpp:129] Top shape: (1)
I0715 09:23:57.440058 31256 net.cpp:132] with loss weight 1
I0715 09:23:57.440099 31256 net.cpp:137] Memory required for data: 3146726596
...
多次调用损失图层的原因(在上面的代码片段中)是,我使用自定义图层中的图层来调用其他图层,(类型为"Softmax"
的softmax,类型为{{1}的sigmoid) },reshape_softmax类型"Sigmoid"
,reshape_sigmoid&#34;重塑&#34;以及另一个"Reshape"
图层。所有这5个图层都作用于输入blob到此自定义图层的不同部分)
在训练模型时,似乎根本没有调用Forward_cpu()方法。可能是什么问题,我该如何解决?
答案 0 :(得分:2)
在这种情况下,可能会调用Forward_gpu()
方法。要克服此错误,请确保您没有<your_custom_layer>.cu
文件来实现Forward_gpu
和Backward_gpu()