这是earlier question的扩展程序,但我单独询问,因为我感到非常沮丧,所以请不要对它进行投票!
问题:与密集矩阵的相同cblas_sgemm调用相比,cblas_sgemm调用对于大量零的矩阵所花费的时间少得多可能是什么原因?
我知道gemv是为矩阵向量乘法而设计的,但是为什么我可以使用gemm进行向量矩阵乘法,如果它花费的时间更少,特别是对于稀疏矩阵
下面给出了一个简短的代表性代码。它要求输入一个值,然后使用该值填充向量。然后它用其索引替换每个第32个值。所以,如果我们输入' 0' 0然后我们得到一个稀疏向量,但对于其他值,我们得到一个密集向量。
#include <iostream>
#include <stdio.h>
#include <time.h>
#include <cblas.h>
using namespace std;
int main()
{
const int m = 5000;
timespec blas_start, blas_end;
long totalnsec; //total nano sec
double totalsec, totaltime;
int i, j;
float *A = new float[m]; // 1 x m
float *B = new float[m*m]; // m x m
float *C = new float[m]; // 1 x m
float input;
cout << "Enter a value to populate the vector (0 for sparse) ";
cin >> input; // enter 0 for sparse
// input martix A: every 32nd element is non-zero, rest of the values = input
for(i = 0; i < m; i++)
{
A[i] = input;
if( i % 32 == 0) //adjust for sparsity
A[i] = i;
}
// input matrix B: identity matrix
for(i = 0; i < m; i++)
for(j = 0; j < m; j++)
B[i*m + j] = (i==j);
clock_gettime(CLOCK_REALTIME, &blas_start);
cblas_sgemm(CblasRowMajor, CblasNoTrans, CblasNoTrans, 1, m, m, 1.0f, A, m, B, m, 0.0f, C, m);
clock_gettime(CLOCK_REALTIME, &blas_end);
/* for(i = 0; i < m; i++)
printf("%f ", C[i]);
printf("\n\n"); */
// Print time
totalsec = (double)blas_end.tv_sec - (double)blas_start.tv_sec;
totalnsec = blas_end.tv_nsec - blas_start.tv_nsec;
if(totalnsec < 0)
{
totalnsec += 1e9;
totalsec -= 1;
}
totaltime = totalsec + (double)totalnsec*1e-9;
cout<<"Duration = "<< totaltime << "\n";
return 0;
}
我在Ubuntu 14.04中用blas 3.0
运行如下erisp@ubuntu:~/uas/stackoverflow$ g++ gemmcomp.cpp -o gemmcomp.o -lblas
erisp@ubuntu:~/uas/stackoverflow$ ./gemmcomp.o
Enter a value to populate the vector (0 for sparse) 5
Duration = 0.0291558
erisp@ubuntu:~/uas/stackoverflow$ ./gemmcomp.o
Enter a value to populate the vector (0 for sparse) 0
Duration = 0.000959521
修改
如果我用以下gemv调用替换gemm调用,那么矩阵稀疏性无关紧要
//cblas_sgemm(CblasRowMajor, CblasNoTrans, CblasNoTrans, 1, m, m, 1.0f, A, m, B, m, 0.0f, C, m);
cblas_sgemv(CblasRowMajor, CblasNoTrans, m, m, 1.0f, B, m, A, 1, 0.0f, C, 1);
结果
erisp@ubuntu:~/uas/stackoverflow$ g++ gemmcomp.cpp -o gemmcomp.o -lblas
erisp@ubuntu:~/uas/stackoverflow$ ./gemmcomp.o
Enter a value to populate the vector (0 for sparse) 5
Duration = 0.0301581
erisp@ubuntu:~/uas/stackoverflow$ ./gemmcomp.o
Enter a value to populate the vector (0 for sparse) 0
Duration = 0.0299282
但问题是我正在尝试使用cublas优化其他人的代码,并且他成功并且高效使用gemm来执行此向量矩阵乘法。因此,我必须对其进行测试或明确证明此调用不正确
修改
我今天甚至使用
更新了我的blas库sudo apt-get install libblas-dev liblapack-dev
编辑:按照不同的贡献者的建议执行以下命令
erisp@ubuntu:~/uas/stackoverflow$ ll -d /usr/lib/libblas* /etc/alternatives/libblas.*
lrwxrwxrwx 1 root root 26 مارچ 13 2015 /etc/alternatives/libblas.a -> /usr/lib/libblas/libblas.a
lrwxrwxrwx 1 root root 27 مارچ 13 2015 /etc/alternatives/libblas.so -> /usr/lib/libblas/libblas.so
lrwxrwxrwx 1 root root 29 مارچ 13 2015 /etc/alternatives/libblas.so.3 -> /usr/lib/libblas/libblas.so.3
lrwxrwxrwx 1 root root 29 مارچ 13 2015 /etc/alternatives/libblas.so.3gf -> /usr/lib/libblas/libblas.so.3
drwxr-xr-x 2 root root 4096 مارچ 13 2015 /usr/lib/libblas/
lrwxrwxrwx 1 root root 27 مارچ 13 2015 /usr/lib/libblas.a -> /etc/alternatives/libblas.a
lrwxrwxrwx 1 root root 28 مارچ 13 2015 /usr/lib/libblas.so -> /etc/alternatives/libblas.so
lrwxrwxrwx 1 root root 30 مارچ 13 2015 /usr/lib/libblas.so.3 -> /etc/alternatives/libblas.so.3
lrwxrwxrwx 1 root root 32 مارچ 13 2015 /usr/lib/libblas.so.3gf -> /etc/alternatives/libblas.so.3gf
erisp@ubuntu:~/uas/stackoverflow$ ldd ./gemmcomp.o
linux-gate.so.1 => (0xb76f6000)
libblas.so.3 => /usr/lib/libblas.so.3 (0xb765e000)
libstdc++.so.6 => /usr/lib/i386-linux-gnu/libstdc++.so.6 (0xb7576000)
libc.so.6 => /lib/i386-linux-gnu/libc.so.6 (0xb73c7000)
libm.so.6 => /lib/i386-linux-gnu/libm.so.6 (0xb7381000)
/lib/ld-linux.so.2 (0xb76f7000)
libgcc_s.so.1 => /lib/i386-linux-gnu/libgcc_s.so.1 (0xb7364000)
答案 0 :(得分:5)
问题:与密集矩阵的相同cblas_sgemm调用相比,cblas_sgemm调用背后的原因可能是因为使用大量零的矩阵花费的时间少得多?
似乎由the default libblas-dev package为Ubuntu 14.04(可能还有其他Ubuntu发行版)提供的BLAS实现包括对某些矩阵元素为零的情况的优化。
对于Ubuntu 14.04,可以从here下载BLAS(和cblas)实现/包的源代码。
解压缩该存档后,我们有一个cblas/src
目录,其中包含cblas
API,我们还有另一个src
目录,其中包含各种blas例程的F77实现。
对于cblas_sgemm,当指定参数CblasRowMajor
时,cblas/src/cblas_sgemm.c
代码将调用基础fortran例程,如下所示:
void cblas_sgemm(const enum CBLAS_ORDER Order, const enum CBLAS_TRANSPOSE TransA,
const enum CBLAS_TRANSPOSE TransB, const int M, const int N,
const int K, const float alpha, const float *A,
const int lda, const float *B, const int ldb,
const float beta, float *C, const int ldc)
{
...
} else if (Order == CblasRowMajor)
...
F77_sgemm(F77_TA, F77_TB, &F77_N, &F77_M, &F77_K, &alpha, B, &F77_ldb, A, &F77_lda, &beta, C, &F77_ldc);
请注意,对于此行主要调用,A
和B
矩阵的顺序在传递到F77_sgemm
例程时会相反。这是明智的,但我不会深入研究为什么在这里。只需注意A
在fortran通话/代码中变为B
,B
已成为A
。
当我们在src/sgemm.f
中检查相应的fortran例程时,我们会看到以下代码序列:
*
* Start the operations.
*
IF (NOTB) THEN
IF (NOTA) THEN
*
* Form C := alpha*A*B + beta*C.
*
DO 90 J = 1,N
IF (BETA.EQ.ZERO) THEN
DO 50 I = 1,M
C(I,J) = ZERO
50 CONTINUE
ELSE IF (BETA.NE.ONE) THEN
DO 60 I = 1,M
C(I,J) = BETA*C(I,J)
60 CONTINUE
END IF
DO 80 L = 1,K
IF (B(L,J).NE.ZERO) THEN ***OPTIMIZATION
TEMP = ALPHA*B(L,J)
DO 70 I = 1,M
C(I,J) = C(I,J) + TEMP*A(I,L)
70 CONTINUE
END IF
80 CONTINUE
90 CONTINUE
以上是代码部分,用于处理未指定A
的转置和B
的转置的情况(对于此cblas行主要测试用例,这是正确的)。矩阵行/列乘法运算在我添加了音符***OPTIMIZATION
的循环开始处理。特别地,如果矩阵元素B(L,J)
为零,则跳过在线70处关闭的DO循环。但请记住B
对应于传递给A
例程的cblas_sgemm
矩阵。
跳过此do循环允许以这种方式实现的sgemm函数在A
矩阵中传递给cblas_sgemm
时有大量零的情况下大大加快 - 主要是指定。
实验上,并非所有blas实现都有这种优化。在完全相同的平台上进行测试,但使用libopenblas-dev
代替libblas-dev
不会提供这样的加速,即当A
矩阵大多为零时基本上没有执行时间差异,而不是它不是。
请注意,此处的fortran(77)代码似乎与sgemm.f
例程的较早发布版本(例如here)类似或相同。我找到的这个fortran例程的较新发布版本不包含此优化,例如here。