svmlight警告:​​在KT条件下放松epsilon

时间:2012-04-05 09:24:18

标签: machine-learning svm

我正在尝试使用Svmlight学习数据集。在优化过程中,我总是会看到以下警告。

WARNING: Relaxing epsilon on KT-Conditions (0.010000).
.....................................................
WARNING: Relaxing epsilon on KT-Conditions (0.100000).
.....................................................
WARNING: Relaxing epsilon on KT-Conditions (1.000000).
.....................................................
WARNING: Relaxing epsilon on KT-Conditions (10.00000).
....................................................

这很重要,它意味着什么?目前培训不成功。它可以与此警告相关吗?感谢。

1 个答案:

答案 0 :(得分:6)

KT条件是SVM核心优化问题的一部分。如果没有详细了解理论,那么有一系列条件会在您获得最佳解决方案时成为现实。然而,经历足够的迭代以使KT条件完全正确需要更长的时间,而不仅仅是在真实的espilon(非常小的数量)内使它们成真。基本上而不是说A必须等于B,我们说A必须在+或 - epsilon中等于B.研究发现,这在实践中也同样适用于花费额外时间来完全正确地完成条件。

SVM Light首先尝试使用非常小的epsilon,当它无法解决这个问题时,它会放大epsilon,让它更大,试图找到一个,但很明显,如果问题无法解决,它会尝试几次在决定它不可解决之前。

所以我会说这些警告是因为你的问题无法解决,而不是相反。