我们知道我们可以借助numpy如下计算逆矩阵。
matrix1 = np.matrix([[8,2,5],[7,3,1],[4,9,6]])
inverse_matrix1 = matrix1.I
result = np.matmul(matrix1, inverse_matrix1)
结果如下所示,通过执行np.matmul,我们很容易检查准确性。
matrix([[ 0.03585657, 0.1314741 , -0.05179283],
[-0.15139442, 0.11155378, 0.10756972],
[ 0.20318725, -0.25498008, 0.03984064]])
检查结果如下。
matrix([[ 1.00000000e+00, 0.00000000e+00, 2.77555756e-17],
[ 0.00000000e+00, 1.00000000e+00, 3.46944695e-17],
[-2.22044605e-16, 0.00000000e+00, 1.00000000e+00]])
但是,这种情况很小。在实践中,尽管我们应避免为大型矩阵计算逆矩阵,但有时我们必须这样做。我发现了那个矩阵。当矩阵相对较大时,我无法为我提供一个相对准确的逆矩阵。该示例如下所示。我想计算形状为(300,300)的高斯核矩阵的逆矩阵。
point = np.reshape(np.linspace(-5.0, 5.0, 300), (300, 1))
kernel_matrix_np = np.exp(-(point - np.transpose(point))**2 / (2 * 2**2))
我不确定如何计算这样的矩阵。非常感谢!
答案 0 :(得分:0)
示例之间结果的差异不是由于矩阵的大小,而是由于排名。第一个矩阵是满级
>>> matrix_rank(matrix1)
3 ## Shape of the matrix
矩阵的形状),而在第二种情况下,矩阵的排名为19。
>>> matrix_rank(kernel_matrix_np)
19 ## Much less than the shape of the matrix
在这种情况下,不可能恢复原始矩阵-需要完整等级矩阵。如@Brenlla所述,这反映在条件编号中。粗略地说,条件编号中的每个数量级代表一位精度损失。
>>> cond(kernel_matrix_np)
1.9605027391309521e+19
在使用矩阵进行计算时,这只是检查两件事,通常其中之一将指示问题出在哪里。最后,在某些情况下使用pinv
代替inv
会产生更好的结果,尽管在这种情况下,由于矩阵的排名不高而无法使用。