我正在为SVM学习“Kenel Tricks”。当我在搜索时,我必须阅读Wiki中的段落,如下所示:
"For machine learning algorithms, the kernel trick is a way of mapping observations from a general set S into an inner product space V (equipped with its natural norm), without ever having to compute the mapping explicitly, in the hope that the observations will gain meaningful linear structure in V"
以上段落的问题是:
任何人都可以用一些实时的例子来定义它,或者给我一些参考网站。所以它有助于理解内核。
答案 0 :(得分:1)
答案就在同一篇文章中:
避免显式映射的技巧是使用学习算法 只需要V中矢量之间的点积,然后选择 这些高维点积可以是映射 通过核函数在原始空间内计算。
这意味着可以避免计算[多维]内核空间中数据点的图像,而只计算这些图像的成对点积,这通常会变得更便宜。有一个例子here,以及关于SVM的几乎每本的书。