从零开始的Python中的K均值

时间:2019-02-23 20:19:13

标签: python numpy machine-learning k-means

我有一个用于k-means算法的python代码。 我很难理解它的作用。 像C = X[numpy.random.choice(X.shape[0], k, replace=False), :]这样的行让我很困惑。

有人可以解释这段代码的实际作用吗? 谢谢

def k_means(data, k, num_of_features):
    # Make a matrix out of the data
    X = data.as_matrix()
    # Get k random points from the data
    C =  X[numpy.random.choice(X.shape[0], k, replace=False), :]
    # Remove the last col
    C = [C[j][:-1] for j in range(len(C))]
    # Turn it into a numpy array
    C = numpy.asarray(C)
    # To store the value of centroids when it updates
    C_old = numpy.zeros(C.shape)
    # Make an array that will assign clusters to each point
    clusters = numpy.zeros(len(X))
    # Error func. - Distance between new centroids and old centroids
    error = dist(C, C_old, None)
    # Loop will run till the error becomes zero of 5 tries
    tries = 0
    while error != 0 and tries < 1:
        # Assigning each value to its closest cluster
        for i in range(len(X)):
            # Get closest cluster in terms of distance
            clusters[i] = dist1(X[i][:-1], C)
        # Storing the old centroid values
        C_old = deepcopy(C)
        # Finding the new centroids by taking the average value
        for i in range(k):
            # Get all of the points that match the cluster you are on
            points = [X[j][:-1] for j in range(len(X)) if clusters[j] == i]
            # If there were no points assigned to cluster, put at origin
            if not points:
                C[i][:] = numpy.zeros(C[i].shape)
            else:
                # Get the average of all the points and put that centroid there
                C[i] = numpy.mean(points, axis=0)
        # Erro is the distance between where the centroids use to be and where they are now
        error = dist(C, C_old, None)
        # Increase tries
        tries += 1
    return sil_coefficient(X,clusters,k)

1 个答案:

答案 0 :(得分:2)

(扩展答案,稍后会格式化) X是作为矩阵的数据。 使用[]表示法,我们从矩阵中获取切片或选择单个元素。您可能需要查看numpy数组索引。 https://docs.scipy.org/doc/numpy/reference/arrays.indexing.html numpy.random.choice从数据矩阵的第一个维度的大小中随机选择k个元素,而无需替换。 注意,在索引中,使用[]语法,我们看到有两个条目。 numpy.random.choice和“:”。 “:”表示我们正在沿该轴进行一切操作。

因此,X [numpy.random.choice(X.shape [0],k,replace = False),:]表示我们沿第一个轴选择一个元素,并沿第二个轴取每个共享第一个索引的元素。实际上,我们正在选择矩阵的随机行。

(这些注释很好地解释了这段代码,我建议您读入numpy索引列表理解以进一步阐明)。

C [C [j] [:-1] for j in range(len(c))] “ C [”之后的部分使用列表推导来选择矩阵C的部分。

C [j]代表矩阵C的行。 我们使用[:-1]占用但不包括该行的最后一个元素。我们对矩阵C中的每一行进行此操作。这将删除矩阵的最后一列。

C = numpy.asarray(C)。这会将矩阵转换为numpy数组,因此我们可以使用它执行特殊的numpy事情。

C_old = numpy.zeros(C.shape)。这将创建一个零矩阵,以供稍后填充,该矩阵的大小与C相同。我们正在初始化此数组,以便稍后填充。

clusters = numpy.zeros(len(x))。这将创建一个零向量,其维数与矩阵X中的行数相同。稍后将填充此向量。我们正在初始化此数组,以便稍后填充。

错误= dist(C,C_old,无)。取两个矩阵之间的距离。我相信此功能可以在脚本的其他地方定义。

tries =0。将轮胎计数器设置为0。

while ...在此条件为真时执行此阻止。

对于[0 ...(X-1中的行数)]中的i:

clusters [i] = dist1(X [i] [:-1],C);将X的第i行最靠近哪个群集放在群集的第i个位置。

C_old = deepcopy(C)-创建一个新的C副本。不要只是移动指针。

每种(0 ..均值-1):

如果聚类[j] == i],则在范围(len(X))中,j的

points = [X [j] [:-1]”。这是一个列表理解。创建X的行的列表,除了最后一个条目外,全部列出,但如果该行属于第j个簇,则仅包括该行。

如果没有指向。如果什么都不属于集群。

C [i] [:] = numpy.zeros(C [i] .shape)。创建一个零向量,稍后填充,并将其用作聚类矩阵C的第i行。

其他:

C [i] = np.mean(点,轴= 0)。将聚类矩阵的第C行指定为聚类中的平均点。我们对各行求和(轴= 0)。这是我们更新集群。