我正在尝试为3D点生成二进制分类的分离超平面。
以下是我的观点,它们是线性可分的。
Class 0: [[0,0,0], [0,1,1], [1,0,1], [0.5,0.4,0.4]]
Class 1: [[1,3,1], [2,0,2], [1,1,1]]
从sklearn.svm.SVC(kernel='linear')
开始,产生以下内容:
w = clf.coeff_ = [ 1. 0.5 0.5]
b = clf.intercept_ = -2.0
sv = clf.support_vectors_ =
array([[ 0., 1., 1.],
[ 1., 0., 1.],
[ 2., 0., 2.],
[ 1., 1., 1.]])
理解是,如果w.dot(x)+b
返回负值,则x为0级;如果为正值,则为1级。但是,w.dot([1,1,1])+b = 0
!!这意味着[1,1,1]
,它是来自第1类的支持向量,位于位于分离平面上.....而类别0中没有来自sep。平面上。
我的问题是......
我的数据是线性可分的,因此理论上SVM的两个类的边距应该> 0。但是在这里,我的SVM对于class1有一个= 0,对于class0有一个> 0的余量。为什么会这样?如果我的超平面不正确,我该如何计算正确的超平面?谢谢。
CODE
from sklearn import svm
X0 = [[0,0,0], [0,1,1], [1,0,1], [0.5,0.4,0.4]]
Y0 = [0] * len(X0)
X1 = [[1,3,1], [2,0,2], [1,1,1]]
Y1 = [1] * len(X1)
X = X0 + X1
Y = Y0 + Y1
clf = svm.SVC(kernel='linear')
clf.fit(X, Y)
sv = clf.support_vectors_
w = clf.coef_[0]
b = clf.intercept_[0]
print([w.dot(X0[i])+b for i in range(len(X0))]) # negative class
print([w.dot(X1[i])+b for i in range(len(X1))]) # positive class
答案 0 :(得分:0)
YES!您的解释是正确的,如果w.dot(x)+b
返回负值,则x为Class 0
;
这是需要更加谨慎地强调的地方!
分类基于THE SIGN!
SIGNUM(w.dot([x])+b)
,w.dot([1, 1, 1]) + b = 0
,0被视为POSITIVE
!这就是为什么[1, 1, 1]
被认为属于第1类
X1 = [[1,3,1], [2,0,2], [1,1,1]]
clf.predict(X1)
你得到了
array([1, 1, 1])
对于2D中的点,您首先找到一条正确分隔数据的线。这条线称为决策边界!现在在这个决策边界? w.dot([1, 1, 1]) + b = 0
那么你想要做的是,找到一条线周围最宽的区域(称为MARGIN / MAXIMUM SEPARATING HYPERPLANE / WIDEST ROAD),它可以最大化两个点之间的距离!
当课程完全可分离时?
在您的保证金的一端由支持向量管理? w.dot([1, 1, 1]) + b = -1
在您的保证金的另一端受支持向量管理? w.dot([1, 1, 1]) + b = +1
但是,当课程不能完全分开时?您可以在决策边界上获得完美的保证金!这取决于您的数据!在您的情况下,您的MARGIN / MAXIMUM SEPARATING HYPERPLANE / WIDEST ROAD的一部分位于您的决策边界!它无法帮助!