如何使用Python设置k-Means聚类标签从高到低?

时间:2017-07-03 14:41:46

标签: python sorting numpy scikit-learn k-means

我在早上,下午和晚上都有38套公寓和电力消耗的数据集。我正在尝试使用scikit-learn中的k-Means实现来聚类这个数据集,并且得到了一些有趣的结果。

首次聚类结果: Img

这一切都非常好,有4个集群我显然得到了与每个公寓相关的4个标签 - 0,1,2和3.使用random_state方法的KMeans参数,我可以修复随机初始化质心的种子,因此我始终得到归属于同一公寓的相同标签。

然而,由于该特定情况是关于能量消耗,因此可以执行最高和最低消费者之间的可测量分类。因此,我希望将标签0分配给消费水平最低的公寓,将标签1分配给消耗更多的公寓,依此类推。

截至目前,我的标签是[2 1 3 0],或者["黑色","绿色","蓝色","红色"];我希望他们是[0 1 2 3]或[" red"," green"," black"," blue"] 。我应该如何继续这样做,同时仍然保持质心初始化随机(使用固定种子)?

非常感谢您的帮助!

2 个答案:

答案 0 :(得分:7)

通过查找表转换标签是实现您想要的直接方式。

首先,我生成一些模拟数据:

from sklearn.cluster import KMeans
k = 4
kmeans = KMeans(n_clusters=k, random_state=0).fit(X)

然后我对数据执行聚类:

idx = np.argsort(kmeans.cluster_centers_.sum(axis=1))
lut = np.zeros_like(idx)
lut[idx] = np.arange(k)

最后我使用NumPy的argsort来创建一个这样的查找表:

In [70]: kmeans.cluster_centers_.sum(axis=1)
Out[70]: array([ 0.3214523 ,  0.40877735,  0.26911353,  0.25234873])

In [71]: idx
Out[71]: array([3, 2, 0, 1], dtype=int64)

In [72]: lut
Out[72]: array([2, 3, 1, 0], dtype=int64)

In [73]: kmeans.labels_
Out[73]: array([1, 3, 1, ..., 0, 1, 0])

In [74]: lut[kmeans.labels_]
Out[74]: array([3, 0, 3, ..., 2, 3, 2], dtype=int64)

样品运行:

idx

lut[kmeans.labels_]显示从最低到最高消费级别排序的群集中心标签。 03 / {{1}}的公寓属于消费水平最低/最高的群组。

答案 1 :(得分:0)

也许最好根据质心的矢量幅度对其进行排序,因为您可以使用质心来使用同一模型来预测其他数据。这是我在my repo

中的实现
from sklearn.cluster import KMeans

def sorted_cluster(x, model=None):
    if model == None:
        model = KMeans()
    model = sorted_cluster_centers_(model, x)
    model = sorted_labels_(model, x)
    return model

def sorted_cluster_centers_(model, x):
    model.fit(x)
    new_centroids = []
    magnitude = []
    for center in model.cluster_centers_:
        magnitude.append(np.sqrt(center.dot(center)))
    idx_argsort = np.argsort(magnitude)
    model.cluster_centers_ = model.cluster_centers_[idx_argsort]
    return model

def sorted_labels_(sorted_model, x):
    sorted_model.labels_ = sorted_model.predict(x)
    return sorted_model

示例:

import numpy as np
arr = np.vstack([
    100 + np.random.random((2,3)),
    np.random.random((2,3)),
    5 + np.random.random((3,3)),
    10 + np.random.random((2,3))
])
print('Data:')
print(arr)

cluster = KMeans(n_clusters=4)

print('\n Without sort:')
cluster.fit(arr)
print(cluster.cluster_centers_)
print(cluster.labels_)
print(cluster.predict([[5,5,5],[1,1,1]]))

print('\n With sort:')
cluster = sorted_cluster(arr, cluster)
print(cluster.cluster_centers_)
print(cluster.labels_)
print(cluster.predict([[5,5,5],[1,1,1]]))

输出:

Data:
[[100.52656263 100.57376566 100.63087757]
 [100.70144046 100.94095196 100.57095386]
 [  0.21284187   0.75623797   0.77349013]
 [  0.28241023   0.89878796   0.27965047]
 [  5.14328748   5.37025887   5.26064209]
 [  5.21030632   5.09597417   5.29507699]
 [  5.81531591   5.11629056   5.78542656]
 [ 10.25686526  10.64181304  10.45651994]
 [ 10.14153211  10.28765705  10.20653228]]

 Without sort:
[[ 10.19919868  10.46473505  10.33152611]
 [100.61400155 100.75735881 100.60091572]
 [  0.24762605   0.82751296   0.5265703 ]
 [  5.38963657   5.19417453   5.44704855]]
[1 1 2 2 3 3 3 0 0]
[3 2]

 With sort:
[[  0.24762605   0.82751296   0.5265703 ]
 [  5.38963657   5.19417453   5.44704855]
 [ 10.19919868  10.46473505  10.33152611]
 [100.61400155 100.75735881 100.60091572]]
[3 3 0 0 1 1 1 2 2]
[1 0]