所谓核函数和核方法

不过是把向量的内积\(<\mathbf{x},\mathbf{z}>\)映射为\(<\phi(\mathbf{x})^T,\phi(\mathbf{z})>\)的把戏罢了。这样的算子\(K(\mathbf{x},\mathbf{z})=<\phi(\mathbf{x})^T,\phi(\mathbf{z})>\)便是核函数了。

但是为什么要这么做呢?还是因为那个假设:低维空间中不能线性分割的点集,通过转化为高维空间中的点集时,很有可能变为线性可分的。(SVM讲过这个)

需要注意的是,和神经网络等不同的是,核方法在预测时也需要训练数据(这种类型称作基于实例的学习或基于内存的学习,kNN方法属于这种类型)。

核函数的存在条件被称为Mercer条件

发表评论

电子邮件地址不会被公开。