我理解具有任意数量隐藏层的神经网络可以近似非线性函数,但它是否可以预测某些特殊函数,特别是与某些统计方法相同?
假设分类问题的统计规则如下。对于训练集输入X_train和输出Y_train,我们计算属于每个特定类的X_train的几何平均值(即每个特定类的X_train的中心)。因此,对于每个班级,我们都有一个X的中心。现在,对于测试数据,我们通过找到到训练中心的最短欧氏距离来估计班级标签。例如,假设训练给我们中心如下映射:( - 1,1,1) - > 0,(1,1,1) - > 1。然后对于测试数据(-0.8,0.5,1),由于它更接近(-1,1,1),它应该属于0级。
问题是我不知道是否有任何监督学习方法可以做上述策略。我称之为“监督k-means'”。 KNN方法类似但它找到的标签基于N个最近点,而不是所有训练点的平均值。
我想知道神经网络是否可以做到这一点。或者我是否会错过其他可以实际执行上述策略的学习技巧?如果我尝试学习的统计策略更复杂,例如包括中心和协方差,会怎么样?
答案 0 :(得分:0)
使用神经网络来解决这个问题会是一个过冲。
Linear discriminant analysis和Gaussian naive Bayes执行类似于您描述的操作。他们估计每个班级的中心为算术平均值,并将每个点与最近的中心相关联。但是他们计算修改的距离而不是欧几里得:GNB估计每个特征的条件方差,而LDA也估计协方差。并且它们还考虑了先前的类概率。这些修改可能会改善您的分类,但如果您不想要它们,您可以自己编写算法。