我正在努力理解绑定在线Perceptron
的错误背后的直觉,我发现here。
在第3.1节中,作者引入了Perceptron的错误界限,假设数据集是线性可分的。
在3.2节中,作者导出Perceptron的错误界限,这次假设数据集不可分割。将代数放在一边,他们的证据就是将不可分割的案例以更高的维度减少到可分离的案例。也就是说,他们构建新的x
向量(输入)和新的权重向量w
,两者都在更高的维度,新的w
可以线性地分隔新的{{1}矢量。然后,他们证明这个新数据集是线性可分的,因此它们基本上可以使用第3.1节中的错误绑定。
我的问题是:使用3.1节中的错误绑定是不是有问题?也就是说,在3.2节中,他们将数据集投射到更高的维度;这并不意味着“常规”感知器不能再使用了吗?是不是他们应该使用某种内核感知器,从而使原始感知器无关紧要?
感谢。