#include <algorithm>
#include <vector>
template <typename Dtype>
__global__ void R_D_CUT(const int n, Dtype* r, Dtype* d
, Dtype cur_r_max, Dtype cur_r_min, Dtype cur_d_max, Dtype cur_d_min) {
CUDA_KERNEL_LOOP(index, n) {
r[index] = __min(cur_r_max, __max(r[index], cur_r_min));
d[index] = __min(cur_d_max, __max(d[index], cur_d_min));
}
}
在上面的代码中,它可以在Window中很好地工作。但是,由于__min
和__max
函数,它在Ubuntu中不起作用。通过将__min
替换为std::min<Dtype>
并将max
替换为std::max<Dtype>
来修复此问题:
template <typename Dtype>
__global__ void R_D_CUT(const int n, Dtype* r, Dtype* d
, Dtype cur_r_max, Dtype cur_r_min, Dtype cur_d_max, Dtype cur_d_min) {
CUDA_KERNEL_LOOP(index, n) {
r[index] = std::min<Dtype>(cur_r_max, std::max<Dtype>(r[index], cur_r_min));
d[index] = std::min<Dtype>(cur_d_max, std::max<Dtype>(d[index], cur_d_min));
}
}
然而,当我重新编译时,我收到了错误
_layer.cu(7): error: calling a __host__ function("std::min<float> ") from a __global__ function("caffe::R_D_CUT<float> ") is not allowed
_layer.cu(7): error: calling a __host__ function("std::max<float> ") from a __global__ function("caffe::R_D_CUT<float> ") is not allowed
_layer_layer.cu(8): error: calling a __host__ function("std::min<float> ") from a __global__ function("caffe::R_D_CUT<float> ") is not allowed
_layer_layer.cu(8): error: calling a __host__ function("std::max<float> ") from a __global__ function("caffe::R_D_CUT<float> ") is not allowed
_layer_layer.cu(7): error: calling a __host__ function("std::min<double> ") from a __global__ function("caffe::R_D_CUT<double> ") is not allowed
_layer_layer.cu(7): error: calling a __host__ function("std::max<double> ") from a __global__ function("caffe::R_D_CUT<double> ") is not allowed
_layer_layer.cu(8): error: calling a __host__ function("std::min<double> ") from a __global__ function("caffe::R_D_CUT<double> ") is not allowed
_layer_layer.cu(8): error: calling a __host__ function("std::max<double> ") from a __global__ function("caffe::R_D_CUT<double> ") is not allowed
你可以帮我解决一下吗?感谢
答案 0 :(得分:6)
一般来说,与std::
相关联的功能在CUDA设备代码(__global__
或__device__
功能)中不可用。
相反,对于许多数学函数,NVIDIA提供了CUDA math library。
对于这种情况,正如@njuffa指出的那样,CUDA提供了min
和max
的模板化/重载版本。因此,您应该能够在设备代码中使用min()
或max()
,假设类型用法对应于可用的模板化/重载类型之一。另外,你应该:
#include <math.h>
以下是一个简单的工作示例,显示了min()
和float
类型double
的使用情况:
$ cat t381.cu
#include <math.h>
#include <stdio.h>
template <typename T>
__global__ void mymin(T d1, T d2){
printf("min is :%f\n", min(d1,d2));
}
int main(){
mymin<<<1,1>>>(1.0, 2.0);
mymin<<<1,1>>>(3.0f, 4.0f);
cudaDeviceSynchronize();
}
$ nvcc -arch=sm_52 -o t381 t381.cu
$ ./t381
min is :1.000000
min is :3.000000
$
请注意,可用的重载选项甚至是include some integer types
答案 1 :(得分:1)
添加到@ RobertCrovella&#39; s answer:如果你想要的东西更像std::max
,你可以使用这个模板化的包装器而不是CUDA的数学库:
#define __df__ __device__ __forceinline__
template <typename T> __df__ T maximum(T x, T y);
template <> __df__ int maximum<int >(int x, int y) { return max(x,y); }
template <> __df__ unsigned int maximum<unsigned >(unsigned int x, unsigned int y) { return umax(x,y); }
template <> __df__ long maximum<long >(long x, long y) { return llmax(x,y); }
template <> __df__ unsigned long maximum<unsigned long >(unsigned long x, unsigned long y) { return ullmax(x,y); }
template <> __df__ long long maximum<long long >(long long x, long long y) { return llmax(x,y); }
template <> __df__ unsigned long long maximum<unsigned long long>(unsigned long long x, unsigned long long y) { return ullmax(x,y); }
template <> __df__ float maximum<float >(float x, float y) { return fmaxf(x,y); }
template <> __df__ double maximum<double >(double x, double y) { return fmax(x,y); }
#undef __df__
(有关这些包装器的更完整集,请参阅here。)