我试图在Alea GPU上使用Gemm进行矩阵乘法,但是,这段代码给出了错误的结果。
Gpu gpu = Gpu.Default;
Blas blas = new Blas(gpu);
int m=2,n=3; //in dimension and out dimension (output will be mxn matrix)
int k=4;
//column major
float[,] A = new float[4,2] { {100,200},{2,6},{3,7},{4,8} }; //2x4 matrix
float[,] B = new float[3,4] { {1,4,7,10}, {2,5,8,11}, {3,6,9,12} }; //4x3 matrix
float[,] C = new float[3,2] { {-1,-1}, {-1,-1}, {-1,-1} }; //2x3 matrix
var dA = gpu.AllocateDevice<float>(A);
var dB = gpu.AllocateDevice<float>(B);
var dC = gpu.AllocateDevice<float>(C);
blas.Gemm(Operation.N,Operation.N,m,n,k,1f,dA.Ptr,m,dB.Ptr,k,0f,dC.Ptr,m);
var result = Gpu.Copy2DToHost(dC);
这是我得到的结果。它只是从矩阵A中复制一些数字。矩阵C中的某些数字不会从初始化中改变。
100 -1 -1
200 -1 -1
代码有什么问题吗?请帮忙。
我正在使用带有cuda toolkit 8.0的alea 3.0.3。
UPDATE1 :当我将A,B,C矩阵展平为1D阵列时,我发现它给出了正确的结果。但是,仍然想知道2D阵列有什么问题。
答案 0 :(得分:1)
我发现用于2D-Array的gpu.AllocateDevice不会像在CPU上那样在GPU上分配空间。任何2个连续列(间距)的第一个元素之间的距离非常大。
因此,必须更改前导尺寸参数。
blas.Gemm(Operation.N,Operation.N,m,n,k,1f,dA.Ptr,dA.PitchInElements.ToInt32(),dB.Ptr,dB.PitchInElements.ToInt32(),0f,dC.Ptr,dC.PitchInElements.ToInt32());
现在,我得到了正确的结果。但是,有没有文件显示如何在GPU上分配2D数组在Alea中真正起作用?
我只能看到没有解释的http://www.aleagpu.com/release/3_0_3/api/html/6f0dc687-7191-91ba-6c30-bb379dded567.htm。