使用CUBLAS进行批量QR分解

时间:2015-07-18 12:27:22

标签: c cuda cublas

我一直试图与CUDA并行执行许多小矩阵的QR分解。 因此,我使用了Cublas的cublasDgeqrfBatched函数。我无法找到上述功能的实例,我发现在调用它的文档中有些含糊不清。 实际上,我尝试在Wikipedia中的Householder反射部分的示例中测试cublasDgeqrfBatched,因为cublasDgeqrfBatched使用了相同的方法。 2个输入小矩阵是相同的,如下所示:

A= 12 -51   4
   6   167 -68
  -4   24  -41

根据文档,Aarray是指向维度为mxn的矩阵的指针数组,而TauArray是指向维度至少为max (1, min(m, n).

的向量的指针数组。

cublasDgeqrfBatched执行每个Aarray[i]的QR分解

i = 0,...,batchSize-1

每个矩阵Q[i]都存储在每个Aarray[i]

的下半部分

我使用以下代码来调用此函数:

#include "cuda_runtime.h"
#include "device_launch_paraMeters.h"

#include<stdlib.h>
#include<stdio.h>
#include<assert.h>
#include <cublas.h>
#include "cublas_v2.h"
#include "Utilities.cuh"
#include <helper_cuda.h>


/********/
/* MAIN */
/********/
int main(){

//mxn: size of Array[i]

const int m = 3;
const int n = 3;
double h_A[3*3*2]={12, -51, 4, 6, 167, -68, -4, 24, -41, 12, -51, 4, 6, 167, -68, -4, 24, -41};// two 3x3 identical matrices for test


const int batchSize=2;//2 small matrices 
const int ltau=3; //ltau = max(1,min(m,n))

// --- CUBLAS initialization
    cublasHandle_t cublas_handle;
    cublasStatus_t stat;
    cublasSafeCall(cublasCreate(&cublas_handle));


// --- CUDA batched QR initialization

    double *d_A, *d_TAU;


checkCudaErrors(cudaMalloc((void**)&d_A, m*n*batchSize*sizeof(double)));  
checkCudaErrors(cudaMalloc((void**)&d_TAU, ltau*batchSize*sizeof(double))); 

checkCudaErrors(cudaMemcpy(d_A,h_A,m*n*batchSize*sizeof(double),cudaMemcpyHostToDevice));

double *d_Aarray[batchSize],*d_TauArray[batchSize];

for (int i = 0; i < batchSize; i++)
{ 
    d_Aarray[i] = d_A+ i*m*n;
    d_TauArray[i] = d_TAU + i*ltau;
}

int lda=3;
int info;

stat=cublasDgeqrfBatched(cublas_handle, m, n, d_Aarray, lda, d_TauArray, &info, batchSize);
if (stat != CUBLAS_STATUS_SUCCESS) 
    printf("\n cublasDgeqrfBatched failed");


double *A0,*A1;
A0=(double*)malloc(m*n*batchSize*sizeof(double));
A1=(double*)malloc(m*n*sizeof(double));

checkCudaErrors(cudaMemcpy(A0,d_Aarray[0],m*n*sizeof(double),cudaMemcpyDeviceToHost));
checkCudaErrors(cudaMemcpy(A1,d_Aarray[1],m*n*sizeof(double),cudaMemcpyDeviceToHost));

}

但是,收到错误"CUDA error batched_QR/kernel.cu:64 code=4(cudaErrorLaunchFailure) "cudaMemcpy(A0,d_Aarray[0],m*n*sizeof(double),cudaMemcpyDeviceToHost)"

我认为使用指针时出错,但我无法纠正它。请问哪里有问题?

修改:

将d_Aarray和d_TauArray设备阵列作为talonmies提出,我添加了以下内容:

     double *d_A, *d_TAU;


checkCudaErrors(cudaMalloc((void**)&d_A, m*n*batchSize*sizeof(*d_A)));  
checkCudaErrors(cudaMalloc((void**)&d_TAU, ltau*batchSize*sizeof(*d_TAU))); 

checkCudaErrors(cudaMemcpy(d_A,h_A,m*n*batchSize*sizeof(double),cudaMemcpyHostToDevice));
checkCudaErrors(cudaMemset(d_TAU, 0, ltau*batchSize* sizeof(*d_TAU)));

但是将结果复制回主机时始终存在相同的错误。

1 个答案:

答案 0 :(得分:0)

  

我认为指针的使用存在错误

你是对的。传递给cublasDgeqrfBatched的设备指针数组是主机数组而不是设备数组:

double *d_Aarray[batchSize],*d_TauArray[batchSize];

for (int i = 0; i < batchSize; i++)
{ 
    d_Aarray[i] = d_A+ i*m*n;
    d_TauArray[i] = d_TAU + i*ltau;
}

您必须将d_Aarrayd_TauArray复制到设备,并将设备副本的地址传递给cublasDgeqrfBatched才能正常使用。像这样:

double *d_Aarray[batchSize],*d_TauArray[batchSize];

for (int i = 0; i < batchSize; i++)
{ 
    d_Aarray[i] = d_A+ i*m*n;
    d_TauArray[i] = d_TAU + i*ltau;
}

double ** d_Aarray_, ** d_TauArray_;
cudaMalloc((void **)&d_Aarray_, sizeof(d_Aarray));
cudaMalloc((void **)&d_TauArray_, sizeof(d_TauArray));

cudaMemcpy(d_Aarray_, d_Aarray, sizeof(d_Aarray), cudaMemcpyHostToDevice);
cudaMemcpy(d_TauArray_, d_TauArray, sizeof(d_TauArray), cudaMemcpyHostToDevice);

stat = cublasDgeqrfBatched(cublas_handle, m, n, d_Aarray_, lda, d_TauArray_, &info, batchSize)

[免责声明:用浏览器编写]

此处d_Aarray_d_TauArray_d_Aarrayd_TauArray设备内存副本。