为什么SVD应用于线性回归

时间:2016-05-06 12:09:22

标签: linear-regression least-squares svd minimization

我无法理解这些幻灯片为什么SVD应用于最小二乘问题? enter image description here

接下来就是这样:

enter image description here

在这里,我不明白为什么残余物的衍生物被采用,并且该图中的想法是采用y的投影来最小化误差?

enter image description here

enter image description here

1 个答案:

答案 0 :(得分:0)

这是我谦虚的试验来解释这个...
第一张幻灯片尚未解释SVD与LS的关系。但是它说每当X是一个“标准”矩阵时,就可以用奇异矩阵(只有对角元素不为空)来转换问题 - 这对计算来说很方便。
幻灯片2显示了使用奇异矩阵进行的计算 解释在幻灯片3上:最小化r的范数相当于最小化其作为RSS的平方(因为x - > x * x是x> 0的增加函数)。最小化RSS:与最小化任何“好”函数相同,推导出它,然后将导数等于0。