CUDA设备代码中的constexpr数组

时间:2015-06-23 19:46:09

标签: c++ arrays cuda constexpr

请告诉我,有没有办法在设备代码中使用constexpr数组?根据“Cuda C编程指南7.0”我对constexpr标量没有问题,但是数组似乎没有编译。下面是一些例子:

  template<unsigned D, unsigned Q>
class LatticeArrangement 
{
} ;



template<>
class LatticeArrangement<3,19> 
{
    public:
        static constexpr double c[19] = { 0,1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18 } ;

        static constexpr double d = 19.0 ;


        __host__ __device__ 
        static constexpr double getC( unsigned index ) 
        {
            // FIXME: error: identifier "LatticeArrangement<(unsigned int)3u, (unsigned int)19u> ::c" is undefined in device code 
            return c[ index ] ; 

            //return d * index ; // OK, this one works
        } ;
} ;



constexpr double LatticeArrangement<3,19>::c[] ;



template< class LatticeArrangement >
class FluidModelIncompressible
{
    public:
        __host__ __device__ 
        static double computeSomething(double v, unsigned idx)
        {
            return LatticeArrangement::getC( idx ) * v ;
        }
} ;



// Does nothing useful, we want only to compile this
template< class FluidModel >
__global__ void
kernel1 ( double * data )
{
    data[ threadIdx.x ] = FluidModel::computeSomething( threadIdx.y, threadIdx.z ) ;
}



int main( int argc, char ** argv )
{
    dim3 numBlocks  ( 2 ) ;
    dim3 numThreads ( 4, 4, 4 ) ;   

    double * vptr = NULL ;

    kernel1< FluidModelIncompressible< LatticeArrangement<3,19> > > 
        <<< numBlocks, numThreads >>>   ( vptr ) ;

    return 0 ;
}

我想在主机和设备上使用相同的代码,同时受益于constexpr表达式的编译器优化。 也许有其他方法可以避免主机和设备之间的代码重复? 目前我的设备代码很大。

我正在使用 nvcc:NVIDIA(R)Cuda编译器驱动程序 版权所有(c)2005-2015 NVIDIA Corporation 建于Mon_Feb_16_22:59:02_CST_2015 Cuda编译工具,7.0版,V7.0.27

提前致谢:)

1 个答案:

答案 0 :(得分:4)

  

请告诉我,有没有办法在设备代码中使用constexpr数组?

CUDA 7.0不支持。

如果您希望获得此支持,我建议您在NVIDIA CUDA developer portal提交RFE(错误)。