我想在armadillo中使用spsolve()
时比较SuperLu的稀疏解算器和使用LaPack的密集版本的速度。于是我写了这个程序:
#include "stdafx.h"
#include <iostream>
#include <Windows.h>
#include <armadillo\armadillo>
#define SIZE 2500
#define ROUNDS 2500
int main()
{
//Time measurement stuff
LARGE_INTEGER frequency;
LARGE_INTEGER t1, t2, t3, t4;
QueryPerformanceFrequency(&frequency);
//Other stuff
arma::cx_colvec b = arma::randu<arma::cx_colvec>(SIZE);
arma::cx_colvec b1 = b, b2 = b;
arma::sp_cx_mat A = arma::sp_cx_mat(SIZE, SIZE);
A.diag(-2).fill(-1);
A.diag(-1).fill(16);
A.diag(0).fill(-30);
A.diag(1).fill(16);
A.diag(2).fill(-1);
arma::cx_colvec c = arma::zeros<arma::cx_colvec>(SIZE), d = arma::zeros<arma::cx_colvec>(SIZE);
QueryPerformanceCounter(&t1);
for (size_t i = 0; i < ROUNDS; i++)
{
if(arma::spsolve(c, A, b1, "superlu") == false)
{
std::cout << "Error in round 1\n";
break;
}
b1 = c;
}
QueryPerformanceCounter(&t2);
QueryPerformanceCounter(&t3);
for (size_t i = 0; i < ROUNDS; i++)
{
if(arma::spsolve(d, A, b2, "lapack") == false)
{
std::cout << "Error in round 2\n";
break;
}
b2 = d;
}
QueryPerformanceCounter(&t4);
std::cout << "Superlu took " << (t2.QuadPart - t1.QuadPart)*1000.0 / frequency.QuadPart << '\n';
std::cout << "Lapack took " << (t4.QuadPart - t3.QuadPart)*1000.0 / frequency.QuadPart << '\n';
std::cout << "Both results are equal: " << arma::approx_equal(b1, b2, "abstol", 1e-5) << '\n';
return 0;
}
现在,对于SIZE
和ROUND
的小值,函数approx_equal
返回true,但对于较大的值,结果b1
和b2
不再相等根据{{1}}。为什么?问题可能是我的超级图书馆工作不正常吗?
答案 0 :(得分:1)
我不会责怪SuperLU图书馆。 &#34;问题&#34;这似乎是矩阵A
的最小特征值随着SIZE
的逐渐变大和变大而变得越来越小。现在,for
循环重复将inv(A)
应用于给定的向量。由于你开始使用的矢量是随机的,它会有一些非零&#34;混合物&#34;对应于最小特征值的A
的特征向量。如果反演重复多次,则该分量会显着放大,因此矢量b1/b2
的各个分量变大。
例如,对于SIZE=2000
和ROUNDS=2
,我得到解决方案的最大组件(绝对值)大约为10^9
。然后,您的测试似乎规定了10^-5
的绝对容差。然而,对于如此大的数字,这意味着14个有效数字必须完全匹配,这几乎是双精度的极限。
在我看来,考虑到这里比较的数字的性质,测试更有意义,例如approx_equal(b1, b2, "reldiff", 1E-8)
的相对误差。
此外,应该检查解决方案是否有意义 - 对于大量ROUNDS
,它迟早会溢出。例如已经使用SIZE=2000
和ROUNDS=80
,我在b1/b2
向量中获得了无穷大......