请告诉我,有没有办法在设备代码中使用constexpr数组?根据“Cuda C编程指南7.0”我对constexpr标量没有问题,但是数组似乎没有编译。下面是一些例子:
template<unsigned D, unsigned Q>
class LatticeArrangement
{
} ;
template<>
class LatticeArrangement<3,19>
{
public:
static constexpr double c[19] = { 0,1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18 } ;
static constexpr double d = 19.0 ;
__host__ __device__
static constexpr double getC( unsigned index )
{
// FIXME: error: identifier "LatticeArrangement<(unsigned int)3u, (unsigned int)19u> ::c" is undefined in device code
return c[ index ] ;
//return d * index ; // OK, this one works
} ;
} ;
constexpr double LatticeArrangement<3,19>::c[] ;
template< class LatticeArrangement >
class FluidModelIncompressible
{
public:
__host__ __device__
static double computeSomething(double v, unsigned idx)
{
return LatticeArrangement::getC( idx ) * v ;
}
} ;
// Does nothing useful, we want only to compile this
template< class FluidModel >
__global__ void
kernel1 ( double * data )
{
data[ threadIdx.x ] = FluidModel::computeSomething( threadIdx.y, threadIdx.z ) ;
}
int main( int argc, char ** argv )
{
dim3 numBlocks ( 2 ) ;
dim3 numThreads ( 4, 4, 4 ) ;
double * vptr = NULL ;
kernel1< FluidModelIncompressible< LatticeArrangement<3,19> > >
<<< numBlocks, numThreads >>> ( vptr ) ;
return 0 ;
}
我想在主机和设备上使用相同的代码,同时受益于constexpr表达式的编译器优化。 也许有其他方法可以避免主机和设备之间的代码重复? 目前我的设备代码很大。
我正在使用 nvcc:NVIDIA(R)Cuda编译器驱动程序 版权所有(c)2005-2015 NVIDIA Corporation 建于Mon_Feb_16_22:59:02_CST_2015 Cuda编译工具,7.0版,V7.0.27
提前致谢:)
答案 0 :(得分:4)