关于机器学习和统计学习算法的差异的困惑

时间:2014-11-06 11:34:06

标签: machine-learning statistics

我已经在IEEE软件学习交易中读过这些内容

"研究人员采用了大量不同的技术来构建软件故障预测模型。这些包括各种统计技术,如逻辑回归和朴素贝叶斯,它们明确地构建了潜在的概率模型。此外,不同的机器学习技术,如决策树,基于感知器概念的模型,支持向量机,以及不明确构建预测模型但是看一组最相似的技术 已知病例也已被调查过。

任何人都可以解释他们真正想传达的内容。 请举例。 提前完成。

2 个答案:

答案 0 :(得分:1)

作者似乎区分概率模型和非概率模型,即产生分布p(output | data)的模型与仅产生输出output = f(data)的模型。

尽管如此,非概率算法的描述对我来说有点奇怪。从模型和算法角度来看(线性)支持向量机,感知器和逻辑回归之间的差异并不是非常大。暗示前者"看一组最相似的已知案例"而后者似乎并不奇怪。

答案 1 :(得分:0)

作者似乎区分了计算每类概率的模型(从中可以推导出分类规则以将输入分配给最可能的类,或者更复杂的是,将类别的输入分配给具有最少概率的类错误分类成本)和那些直接将输入分配给类而不通过每类概率作为中间结果的那些。

分类任务可以被视为决策问题;在这种情况下,需要每类概率和错误分类成本矩阵。我认为这种方法在许多关于机器学习的当前文本中有所描述,例如Br​​ian Ripley"模式识别和神经网络"和Hastie,Tibshirani和Friedman,"统计学习的元素"。

作为一个元评论,您可以在stats.stackexchange.com上获得更多关于此问题的关注。