出于某种原因,我必须更改caffe的源代码。这是修改后的代码。
headfile
#include <algorithm>
#include <cfloat>
#include <vector>
#include "caffe/layer.hpp"
#include "caffe/util/math_functions.hpp"
#include "caffe/vision_layers.hpp"
修改后的代码
template <typename Dtype>
__global__ void LPPoolForward(const int nthreads,
const Dtype* const bottom_data, const int num, const int channels,
const int height, const int width, const int pooled_height,
const int pooled_width, const int kernel_h, const int kernel_w,
const int stride_h, const int stride_w, const int pad_h, const int pad_w,float p,
Dtype* const top_data) {
CUDA_KERNEL_LOOP(index, nthreads) {
const int pw = index % pooled_width;
const int ph = (index / pooled_width) % pooled_height;
const int c = (index / pooled_width / pooled_height) % channels;
const int n = index / pooled_width / pooled_height / channels;
int hstart = ph * stride_h - pad_h;
int wstart = pw * stride_w - pad_w;
int hend = min(hstart + kernel_h, height + pad_h);
int wend = min(wstart + kernel_w, width + pad_w);
hstart = max(hstart, 0);
wstart = max(wstart, 0);
hend = min(hend, height);
wend = min(wend, width);
Dtype lp = 0;
double p1=p;
const Dtype* const bottom_slice =bottom_data + (n * channels + c)*height* width;
for (int h = hstart; h < hend; ++h) {
for (int w = wstart; w < wend; ++w) {
lp += pow(bottom_slice[h * width + w],p1);
lp += pow(bottom_slice[h * width + w],p);
}
}
top_data[index] = pow(lp,1/p1);
}
}
}
Using CUDA math functions in a __global__ function - Nsight Eclipse Edition
从那以后,我知道pow()必须具有所有双精度或所有单精度参数。
问题是,当我使用p1(double),lp += pow(bottom_slice[h * width + w],p1)
时,发生了这种情况
不允许从__global__函数调用__host__函数(“std :: pow&lt; float,double&gt;”)
当我使用p(float),lp += pow(bottom_slice[h * width + w],p)
时发生这种情况
错误:不允许从__global__函数(“caffe :: LPPoolForward”)调用__host__函数(“std :: pow&lt; double,float&gt;”)
为什么当我改变pow的第二个参数的精度时,第一个也改变了?我对caffe不太熟悉,所以关于如何解决这个问题的想法?
答案 0 :(得分:3)
现在你已经展示了更多代码,原因很明显。有问题的内核是一个模板,这意味着可以为 单精度和双精度类型实例化代码。通过修复单精度代码,可以将其分解为双精度。反之亦然。
解决方案是制作您声明Dtype
的中间变量。然后,根据内核实例化的类型,参数将始终匹配,并且在编译期间pow
不会出现问题。