sklearn KNN中的加权距离

时间:2018-04-27 14:31:36

标签: python scikit-learn

我正在制作遗传算法以找到权重,以便将它们应用于sklearn KNN中的欧氏距离,尝试提高分类率并删除数据集中的某些特征(我将此权重改为0 )。 我正在使用Python和sklearn的KNN。 这就是我使用它的方式:

def w_dist(x, y, **kwargs):
   return sum(kwargs["weights"]*((x-y)*(x-y)))

KNN = KNeighborsClassifier(n_neighbors=1,metric=w_dist,metric_params={"weights": w})
KNN.fit(X_train,Y_train)
neighbors=KNN.kneighbors(n_neighbors=1,return_distance=False)
Y_n=Y_train[neighbors]
tot=0
for (a,b)in zip(Y_train,Y_vecinos):
    if a==b:
        tot+=1

reduc_rate=X_train.shape[1]-np.count_nonzero(w)/tamaño
class_rate=tot/X_train.shape[0]

它工作得很好,但速度很慢。我一直在分析我的代码,最慢的部分是距离的评估。

我想问一下是否有一些不同的方法告诉KNN在距离内使用权重(我必须使用欧氏距离,但我删除了平方根)。

谢谢!

1 个答案:

答案 0 :(得分:2)

确实有另一种方式,它内置于scikit-learn(因此应该更快)。您可以使用带有权重的wminkowski指标。以下是训练集中功能的随机权重示例。

knn = KNeighborsClassifier(metric='wminkowski', p=2, 
                           metric_params={'w': np.random.random(X_train.shape[1])})