我有一个用于k-means算法的python代码。
我很难理解它的作用。
像C = X[numpy.random.choice(X.shape[0], k, replace=False), :]
这样的行让我很困惑。
有人可以解释这段代码的实际作用吗? 谢谢
def k_means(data, k, num_of_features):
# Make a matrix out of the data
X = data.as_matrix()
# Get k random points from the data
C = X[numpy.random.choice(X.shape[0], k, replace=False), :]
# Remove the last col
C = [C[j][:-1] for j in range(len(C))]
# Turn it into a numpy array
C = numpy.asarray(C)
# To store the value of centroids when it updates
C_old = numpy.zeros(C.shape)
# Make an array that will assign clusters to each point
clusters = numpy.zeros(len(X))
# Error func. - Distance between new centroids and old centroids
error = dist(C, C_old, None)
# Loop will run till the error becomes zero of 5 tries
tries = 0
while error != 0 and tries < 1:
# Assigning each value to its closest cluster
for i in range(len(X)):
# Get closest cluster in terms of distance
clusters[i] = dist1(X[i][:-1], C)
# Storing the old centroid values
C_old = deepcopy(C)
# Finding the new centroids by taking the average value
for i in range(k):
# Get all of the points that match the cluster you are on
points = [X[j][:-1] for j in range(len(X)) if clusters[j] == i]
# If there were no points assigned to cluster, put at origin
if not points:
C[i][:] = numpy.zeros(C[i].shape)
else:
# Get the average of all the points and put that centroid there
C[i] = numpy.mean(points, axis=0)
# Erro is the distance between where the centroids use to be and where they are now
error = dist(C, C_old, None)
# Increase tries
tries += 1
return sil_coefficient(X,clusters,k)
答案 0 :(得分:2)
(扩展答案,稍后会格式化) X是作为矩阵的数据。 使用[]表示法,我们从矩阵中获取切片或选择单个元素。您可能需要查看numpy数组索引。 https://docs.scipy.org/doc/numpy/reference/arrays.indexing.html numpy.random.choice从数据矩阵的第一个维度的大小中随机选择k个元素,而无需替换。 注意,在索引中,使用[]语法,我们看到有两个条目。 numpy.random.choice和“:”。 “:”表示我们正在沿该轴进行一切操作。
因此,X [numpy.random.choice(X.shape [0],k,replace = False),:]表示我们沿第一个轴选择一个元素,并沿第二个轴取每个共享第一个索引的元素。实际上,我们正在选择矩阵的随机行。
(这些注释很好地解释了这段代码,我建议您读入numpy索引列表理解以进一步阐明)。
C [C [j] [:-1] for j in range(len(c))] “ C [”之后的部分使用列表推导来选择矩阵C的部分。
C [j]代表矩阵C的行。 我们使用[:-1]占用但不包括该行的最后一个元素。我们对矩阵C中的每一行进行此操作。这将删除矩阵的最后一列。
C = numpy.asarray(C)。这会将矩阵转换为numpy数组,因此我们可以使用它执行特殊的numpy事情。
C_old = numpy.zeros(C.shape)。这将创建一个零矩阵,以供稍后填充,该矩阵的大小与C相同。我们正在初始化此数组,以便稍后填充。
clusters = numpy.zeros(len(x))。这将创建一个零向量,其维数与矩阵X中的行数相同。稍后将填充此向量。我们正在初始化此数组,以便稍后填充。
错误= dist(C,C_old,无)。取两个矩阵之间的距离。我相信此功能可以在脚本的其他地方定义。
tries =0。将轮胎计数器设置为0。
while ...在此条件为真时执行此阻止。
对于[0 ...(X-1中的行数)]中的i:
clusters [i] = dist1(X [i] [:-1],C);将X的第i行最靠近哪个群集放在群集的第i个位置。
C_old = deepcopy(C)-创建一个新的C副本。不要只是移动指针。
每种(0 ..均值-1):
如果聚类[j] == i],则在范围(len(X))中,j的points = [X [j] [:-1]”。这是一个列表理解。创建X的行的列表,除了最后一个条目外,全部列出,但如果该行属于第j个簇,则仅包括该行。
如果没有指向。如果什么都不属于集群。
C [i] [:] = numpy.zeros(C [i] .shape)。创建一个零向量,稍后填充,并将其用作聚类矩阵C的第i行。
其他:
C [i] = np.mean(点,轴= 0)。将聚类矩阵的第C行指定为聚类中的平均点。我们对各行求和(轴= 0)。这是我们更新集群。