k-Nearest Neighbors破败

时间:2017-10-27 03:21:26

标签: python python-2.7 numpy machine-learning

我正在尝试关注k-Nearest Neighbors上的示例,我不确定numpy命令语法。我应该做一个矩阵式距离计算,给出的代码是

def classify(inputVector, trainingData,labels,k):
     dataSetSize=trainingData.shape[0]
     diffMat=tile(inputVector,(dataSetSize,1))-trainingData
     sqDiffMat = diffMat**2
     sqDistances = sqDiffMat.sum(axis=1)
     distances = sqDistances**0.5
     sortedDistIndicies = distances.argsort()     
for i in range(k):
    voteIlabel = labels[sortedDistIndicies[i]]
    classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
    sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)
    return sortedClassCount[0][0]

def createDataSet():
     group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
     labels = ['A','A','B','B']
     return group, labels

我的问题是sqDistances**0.5如何计算距离等式((A[0]-B[0])+(A[1]-B[1]))^1/2?我不遵循tile如何影响它特定的矩阵是如何从(datasetsize,1) - 训练数据。

1 个答案:

答案 0 :(得分:0)

我希望以下内容能说明这一点。

Numpy tile:https://docs.scipy.org/doc/numpy/reference/generated/numpy.tile.html

使用此功能,您可以从输入矢量创建与训练数据形状相同的矩阵。从这个矩阵中你可以减去训练数据,这些数据可以提供你所提到的test[0]-train[0]部分的一部分,即元素明智差异。

然后,您使用diffMat**2对每个获得的元素进行平方,然后沿axis = 1https://docs.scipy.org/doc/numpy/reference/generated/numpy.sum.html)求和。这导致了类似(test[0] - train[0])^2 + (test[1] - train[1])^2的方程式。

接下来,通过sqDistances**0.5,它将给出欧几里德距离。

要计算欧几里德距离,这可能会有所帮助 https://docs.scipy.org/doc/scipy/reference/generated/scipy.spatial.distance.euclidean.html#scipy.spatial.distance.euclidean