感知器学习

时间:2014-05-15 09:59:34

标签: machine-learning neural-network perceptron

使用更新规则可以轻松完成学习Perceptorn w_i = w_i + n(y- \ hat {y})x。

到目前为止我读到的所有资源都说学习率n可以设置为1 w.l.g。

我的问题如下,是否有任何证据证明收敛速度总是相同的,因为数据是线性可分的? 这不应该也取决于最初的w向量吗?

1 个答案:

答案 0 :(得分:0)

引用Wikipedia

  

感知器的决策边界是不变的   缩放权重向量;也就是说,受到感知的感知器   初始权重向量\ mathbf {w}和学习率\ alpha \,表现   与用初始权重向量训练的感知器相同   \ mathbf {w} / \ alpha \,和学习率1.因此,从最初开始   随着迭代次数的增加,权重变得无关紧要   学习率在感知器的情况下无关紧要   通常只设置为1。