我正在尝试使用CUDA内核异步拆分并重新整形数组的结构。 memcpy()
在内核中不起作用,cudaMemcpy()
*也不起作用;我很茫然。
有人能告诉我从CUDA内核中复制内存的首选方法吗?
值得注意的是,cudaMemcpy(void *to, void *from, size, cudaMemcpyDeviceToDevice)
不能用于我想要做的事情,因为它只能从内核外部调用而不能异步执行。
答案 0 :(得分:30)
是的,在cuda内核中有一个等效的memcpy
。它被称为memcpy
。举个例子:
__global__ void kernel(int **in, int **out, int len, int N)
{
int idx = threadIdx.x + blockIdx.x*blockDim.x;
for(; idx<N; idx+=gridDim.x*blockDim.x)
memcpy(out[idx], in[idx], sizeof(int)*len);
}
这样编译没有错误:
$ nvcc -Xptxas="-v" -arch=sm_20 -c memcpy.cu
ptxas info : Compiling entry function '_Z6kernelPPiS0_ii' for 'sm_20'
ptxas info : Function properties for _Z6kernelPPiS0_ii
0 bytes stack frame, 0 bytes spill stores, 0 bytes spill loads
ptxas info : Used 11 registers, 48 bytes cmem[0]
并发出PTX:
.version 3.0
.target sm_20
.address_size 32
.file 1 "/tmp/tmpxft_00000407_00000000-9_memcpy.cpp3.i"
.file 2 "memcpy.cu"
.file 3 "/usr/local/cuda/nvvm/ci_include.h"
.entry _Z6kernelPPiS0_ii(
.param .u32 _Z6kernelPPiS0_ii_param_0,
.param .u32 _Z6kernelPPiS0_ii_param_1,
.param .u32 _Z6kernelPPiS0_ii_param_2,
.param .u32 _Z6kernelPPiS0_ii_param_3
)
{
.reg .pred %p<4>;
.reg .s32 %r<32>;
.reg .s16 %rc<2>;
ld.param.u32 %r15, [_Z6kernelPPiS0_ii_param_0];
ld.param.u32 %r16, [_Z6kernelPPiS0_ii_param_1];
ld.param.u32 %r2, [_Z6kernelPPiS0_ii_param_3];
cvta.to.global.u32 %r3, %r15;
cvta.to.global.u32 %r4, %r16;
.loc 2 4 1
mov.u32 %r5, %ntid.x;
mov.u32 %r17, %ctaid.x;
mov.u32 %r18, %tid.x;
mad.lo.s32 %r30, %r5, %r17, %r18;
.loc 2 6 1
setp.ge.s32 %p1, %r30, %r2;
@%p1 bra BB0_5;
ld.param.u32 %r26, [_Z6kernelPPiS0_ii_param_2];
shl.b32 %r7, %r26, 2;
.loc 2 6 54
mov.u32 %r19, %nctaid.x;
.loc 2 4 1
mov.u32 %r29, %ntid.x;
.loc 2 6 54
mul.lo.s32 %r8, %r29, %r19;
BB0_2:
.loc 2 7 1
shl.b32 %r21, %r30, 2;
add.s32 %r22, %r4, %r21;
ld.global.u32 %r11, [%r22];
add.s32 %r23, %r3, %r21;
ld.global.u32 %r10, [%r23];
mov.u32 %r31, 0;
BB0_3:
add.s32 %r24, %r10, %r31;
ld.u8 %rc1, [%r24];
add.s32 %r25, %r11, %r31;
st.u8 [%r25], %rc1;
add.s32 %r31, %r31, 1;
setp.lt.u32 %p2, %r31, %r7;
@%p2 bra BB0_3;
.loc 2 6 54
add.s32 %r30, %r8, %r30;
ld.param.u32 %r27, [_Z6kernelPPiS0_ii_param_3];
.loc 2 6 1
setp.lt.s32 %p3, %r30, %r27;
@%p3 bra BB0_2;
BB0_5:
.loc 2 9 2
ret;
}
BB0_3
处的代码块是编译器自动发出的字节大小memcpy
循环。从性能的角度来看,使用它可能不是一个好主意,但它完全受支持(并且已经在所有架构上使用了很长时间)。
四年后编辑补充说,由于设备端运行时API是作为CUDA 6发布周期的一部分发布的,因此也可以直接调用类似
的内容。cudaMemcpy(void *to, void *from, size, cudaMemcpyDeviceToDevice)
所有支持它的架构的设备代码(Compute Capability 3.5和更新的硬件)。
答案 1 :(得分:3)
在我的测试中,最好的答案是编写自己的循环复制例程。就我而言:
__device__
void devCpyCplx(const thrust::complex<float> *in, thrust::complex<float> *out, int len){
// Casting for improved loads and stores
for (int i=0; i<len/2; ++i) {
((float4*) out)[i] = ((float4*) out)[i];
}
if (len%2) {
((float2*) out)[len-1] = ((float2*) in)[len-1];
}
}
memcpy
在内核中运行但速度可能要慢得多。来自主机的cudaMemcpyAsync
是有效选项。
我需要在不同的缓冲区中将800个连续的〜33,000长度的矢量分区到16,500个长度,并且需要1,600个拷贝调用。使用nvvp进行计时:
@talonmies报告memcpy
逐字节复制,这对于加载和存储来说是低效的。我仍然瞄准计算3.0,所以我无法在设备上测试cudaMemcpy。
编辑:在较新的设备上测试。设备运行时cudaMemcpyAsync(out, in, bytes, cudaMemcpyDeviceToDevice, 0)
可与良好的复制循环相媲美,并且优于错误的复制循环。注意使用设备运行时api可能需要编译更改(sm> = 3.5,单独编译)。请参阅programming guide和nvcc文档进行编译。
设备memcpy
错误。主持人cudaMemcpyAsync
没问题。设备cudaMemcpyAsync
好。
答案 2 :(得分:1)
cudaMemcpy()
确实异步运行,但你是对的,它不能在内核中执行。
阵列的新形状是根据某些计算确定的吗?然后,您通常会运行与数组中的条目相同数量的线程。每个线程都会运行一个计算来确定数组中单个条目的源和目标,然后使用单个赋值将其复制到那里。 (dst[i] = src[j]
)。如果数组的新形状不是基于计算,则从主机运行一系列cudaMemcpy()
cudaMemCpyDeviceToDevice
可能更有效。