我正在尝试通过CUDA代码将现有项目的一部分移植到GPU。我理解cmake有选项(find_cuda ...)来单独处理.cu文件,但我仍然试图弄清楚如何在现有项目的上下文中使用这个生态系统。
我的问题如下。假设我有一个带有cmake配置文件(CMakeLists)的现有C ++项目。目前的做法是什么(如果可能的话)包括CUDA内核?可以用某种方式构建CMakeLists,.cu文件仅在GPU存在的情况下编译吗?
我目前的想法是创建一个单独的文件夹,其中只存在与CUDA相关的代码,然后将其编译为静态库。那是这样做的吗?
答案 0 :(得分:4)
将CUDA文件放在单独的文件夹中是我推荐的方法,但不是必需的。基本原则是你收集CMake变量中的所有.cu文件(让我们称之为CUDA_SRC
)和所有.cpp文件放在另一个变量中(称之为SRC
)。现在编译两个文件并将它们放在一起。 CUDA_FOUND
提供的变量find_package(CUDA)
可用于确定系统上是否安装了CUDA。不需要为cuda文件使用静态库,但我会在这里向您展示两种方式。
在您的顶级cmake文件中,您希望找到类似这样的内容来查找CUDA并设置一些nvcc标志:
find_package(CUDA QUIET)
if(CUDA_FOUND)
include_directories(${CUDA_INCLUDE_DIRS})
SET(ALL_CUDA_LIBS ${CUDA_LIBRARIES} ${CUDA_cusparse_LIBRARY} ${CUDA_cublas_LIBRARY})
SET(LIBS ${LIBS} ${ALL_CUDA_LIBS})
message(STATUS "CUDA_LIBRARIES: ${CUDA_INCLUDE_DIRS} ${ALL_CUDA_LIBS}")
set(CUDA_PROPAGATE_HOST_FLAGS ON)
set(CUDA_SEPARABLE_COMPILATION OFF)
list( APPEND CUDA_NVCC_FLAGS -gencode=arch=compute_30,code=compute_30 )
list( APPEND CUDA_NVCC_FLAGS -gencode=arch=compute_52,code=sm_52 )
endif()
使用静态CUDA库
if(CUDA_FOUND)
#collect CUDA files
FILE(GLOB_RECURSE CUDA_SRC *.cu)
#build static library
CUDA_ADD_LIBRARY(my_cuda_lib ${CUDA_SRC} STATIC)
SET(LIBS ${LIBS} ${my_cuda_lib})
endif()
#collect cpp files
FILE(GLOB_RECURSE SRC *.cpp)
#compile .cpp files and link it to all libraries
add_executable(${PROG_NAME} ${SRC})
target_link_libraries(${PROG_NAME} ${LIBS} )
没有静态CUDA lib
FILE(GLOB_RECURSE SRC *.cpp)
if(CUDA_FOUND)
#compile cuda files and add the compiled object files to your normal source files
FILE(GLOB_RECURSE CUDA_SRC *.cu)
cuda_compile(cuda_objs ${CUDA_SRC})
SET(SRC ${SRC} ${cuda_objs})
endif()
#compile .cpp files and link it to all libraries
add_executable(${PROG_NAME} ${SRC})
target_link_libraries(${PROG_NAME} ${LIBS} )