我想将fft操作的结果从设备复制到主机。
这就是发生的事情。 输入是指向float的指针。值在运行时分配。然后将它转移到gpu并计算fft。然后转移结果 to float2 2D数组。但我得到的结果是错误的。它包含全零。那我怎么能克服这个问题呢?
#define NRANK 2
#define BATCH 10
#include "cuda_runtime.h"
#include "device_launch_parameters.h"
#include <cufft.h>
#include <stdio.h>
#include <iostream>
#include <vector>
using namespace std;
float func(int,int){
return 2.0f; // some value get return. I have put a dummy value here
}
int main()
{
const size_t NX = 4;
const size_t NY = 5;
// Input array - host side
float **a = new float*[NX];
for (int r = 0; r < NX; ++r) // this can be also done on GPU
{
a[r] = new float[NY];
for (int c = 0; c < NY; ++c)
{
a[r][c] = func(r,c);
}
}
// Output array - host side
float2 c[NX][NY] = { 0 };
cufftHandle plan;
cufftComplex *data; // Input and output arrays - device side
int n[NRANK] = {NX, NY};
// Transfer the data from host to device - have to do it like this becase
// the array is a dynamic array
cudaMalloc((void**)&data, sizeof(cufftComplex)*NX*(NY/2+1));
for(int i=0; i<NX; ++i){
cudaMemcpy(reinterpret_cast<float*>(data) + i*NY, a[i], sizeof(float)*NY,
cudaMemcpyHostToDevice);
}
/* Create a 2D FFT plan. */
cufftPlanMany(&plan, NRANK, n,NULL, 1, 0,NULL, 1, 0,CUFFT_C2C,BATCH);
cufftSetCompatibilityMode(plan, CUFFT_COMPATIBILITY_NATIVE);
cufftExecC2C(plan, data, data, CUFFT_FORWARD);
cudaThreadSynchronize();
cudaMemcpy(c, data, sizeof(float2)*NX*NY, cudaMemcpyDeviceToHost);
// Print the values of c ---- ALL ARE 0
for (int i = 0; i < NX; i++)
{
for (int j =0 ; j< NY; j++)
{
printf(" %f + %fi ",c[i][j].x,c[i][j].y);
b
}
printf("\n");
}
cufftDestroy(plan);
cudaFree(data);
return 0;
}
我怎么能解决这个问题?
在考虑了Robert Crovella的建议之后,我将代码修改为
// Output array - host side
float2 c[NX][NY + 2] ;
// New device side variable that will hold the result from the FFT size - twice as input {2 x NX*(NY/2 + 1)}
cufftComplex *data_out;
cudaMalloc((void**)&data_out, sizeof(cufftComplex)*NX*(NY+2));
/* Create a 2D FFT plan. */
cufftPlanMany(&plan, NRANK, n,NULL, 1, 0,NULL, 1, 0,CUFFT_C2C,BATCH);
cufftSetCompatibilityMode(plan, CUFFT_COMPATIBILITY_NATIVE);
cufftExecC2C(plan, data, data_out, CUFFT_FORWARD);
cudaThreadSynchronize();
cudaError cudaStat2 = cudaMemcpy(c, data_out, sizeof(cufftComplex)*NX*(NY+2) , cudaMemcpyDeviceToHost);
cout << cudaGetErrorString(cudaStat2) << " ,\n";
for (int i = 0; i < NX; i++)
{
for (int j =0 ; j< NY; j++)
{
printf(" %f ,",c[i][j].x);
}
printf("\n");
}
现在输出设备矩阵是2 x sizeof(cufftComplex) NX (NY / 2 + 1),我已将其声明为data_out。然后还调整主体侧基质以保持float2的NX *(NY + 2)元素。现在我没有从cudaMemcpy那里得到任何错误。但我仍然没有得到答案。我得到的是1.#QNAN0值的数组。
那我怎么解决这个问题呢?
答案 0 :(得分:1)
问题标题中描述的问题是通过我在评论中描述的修改来修复的。之后,您的代码还有其他问题,与结果的复制无关。
您要求的是大小为NX*NY
的C2C转换,但您的输入数据大小仅为sizeof(cufftComplex)*NX*(NY/2+1)
。当我修复输入数据及其大小的各种问题时,我开始在代码中获得非NAN的结果。
另外,我不清楚为什么要在不同的地方分配(NY+2)
的大小。当我修复这些错误时,我可以从您的代码中获得某种(非NAN)结果:
$ cat t311.cu
#define NRANK 2
#define BATCH 10
#include "cuda_runtime.h"
#include "device_launch_parameters.h"
#include <cufft.h>
#include <stdio.h>
#include <iostream>
#include <vector>
#define cudaCheckErrors(msg) \
do { \
cudaError_t __err = cudaGetLastError(); \
if (__err != cudaSuccess) { \
fprintf(stderr, "Fatal error: %s (%s at %s:%d)\n", \
msg, cudaGetErrorString(__err), \
__FILE__, __LINE__); \
fprintf(stderr, "*** FAILED - ABORTING\n"); \
exit(1); \
} \
} while (0)
using namespace std;
float func(int,int){
return 2.0f; // some value get return. I have put a dummy value here
}
int main()
{
const size_t NX = 4;
const size_t NY = 5;
// Input array - host side
float **a = new float*[NX];
for (int r = 0; r < NX; ++r) // this can be also done on GPU
{
a[r] = new float[NY];
for (int c = 0; c < NY; ++c)
{
a[r][c] = func(r,c);
}
}
// Output array - host side
float2 c[NX][NY] ;
cufftHandle plan;
cufftComplex *data; // Input and output arrays - device side
int n[NRANK] = {NX, NY};
cudaMalloc((void**)&data, sizeof(cufftComplex)*NX*NY);
cudaMemset(data,0, sizeof(cufftComplex)*NX*NY);
for(int i=0; i<NX; ++i){
cudaMemcpy(reinterpret_cast<float*>(data) + i*NY, a[i], sizeof(float)*NY,cudaMemcpyHostToDevice);
cudaCheckErrors("cudaMemcpy H2D fail");
}
// New device side variable that will hold the result from the FFT size - twice as input {2 x NX*(NY/2 + 1)}
cufftComplex *data_out;
cudaMalloc((void**)&data_out, sizeof(cufftComplex)*NX*(NY));
cudaCheckErrors("cudaMalloc data_out fail");
/* Create a 2D FFT plan. */
if ((cufftPlanMany(&plan, NRANK, n,NULL, 1, 0,NULL, 1, 0,CUFFT_C2C,BATCH)) != CUFFT_SUCCESS) printf("cufft fail 1\n");
if ((cufftSetCompatibilityMode(plan, CUFFT_COMPATIBILITY_NATIVE)) != CUFFT_SUCCESS) printf("cufft fail 2\n");
if ((cufftExecC2C(plan, data, data_out, CUFFT_FORWARD)) != CUFFT_SUCCESS) printf("cufft fail 3\n") ;
cudaDeviceSynchronize();
cudaMemcpy(c, data_out, sizeof(cufftComplex)*NX*(NY) , cudaMemcpyDeviceToHost);
cudaCheckErrors("cudaMemcpy D2H fail");
for (int i = 0; i < NX; i++)
{
for (int j =0 ; j< NY; j++)
{
printf(" %f ,",c[i][j].x);
}
printf("\n");
}
cufftDestroy(plan);
cudaFree(data);
cudaCheckErrors("some error");
return 0;
}
$ nvcc -arch=sm_20 -o t311 t311.cu -lcufft
$ ./t311
20.000000 , 0.000000 , 0.000000 , 0.000000 , 0.000000 ,
20.000000 , 0.000000 , 0.000000 , 0.000000 , 0.000000 ,
0.000000 , 0.000000 , 0.000000 , 0.000000 , 0.000000 ,
0.000000 , 0.000000 , 0.000000 , 0.000000 , 0.000000 ,
$
我不是说这可以修复此代码可能存在的每个可能的问题或错误,但是您已经确定的前两个问题已得到解决。
我认为剩下的问题源于你如何填充输入数据。您将一个不均匀的数字(NY = 5)的浮点值放在cufftComplex数组的顶部。对我来说,这会产生奇怪的结果。每行(数据)中的前两个复数值将具有2的实数和复数分量。第三个值将具有2的实数分量和0的虚数分量。最后两个复数值将全为零。
如果您希望通过单个API调用看到一种可能的方法将float
值数组复制到复数值数组的实部中,请考虑cudaMemcpy2D
,记录{{3}并使用最近的示例here。该示例实际上显示了如何从结构数组复制到float
数组,但执行反向(float
数组到结构数组)使用了类似的技术。这样的事情应该有效:
for(int i=0; i<NX; ++i){
cudaMemcpy2D(data + i*NY, sizeof(cufftComplex), a[i], sizeof(float), sizeof(float), NY, cudaMemcpyHostToDevice);
}
如果您有新问题/新问题,请发布一个新的SO问题来描述它们。