sklearn凝聚聚类:动态更新聚类数量

时间:2016-04-08 01:57:31

标签: python scikit-learn hierarchical-clustering

sklearn.cluster.AgglomerativeClustering的文档提到了

  

当改变簇的数量并使用缓存时,   计算完整的树可能是有利的。

这似乎意味着可以先计算完整的树,然后根据需要快速更新所需的簇数,而无需重新计算树(使用缓存)。

但是,似乎没有记录此更改群集数量的过程。我想这样做但不确定如何继续。

更新:为了澄清,fit方法不会将多个簇作为输入: http://scikit-learn.org/stable/modules/generated/sklearn.cluster.AgglomerativeClustering.html#sklearn.cluster.AgglomerativeClustering.fit

2 个答案:

答案 0 :(得分:1)

您使用参数memory = 'mycachedir'设置了缓存目录,然后如果设置compute_full_tree=True,当您使用fit的不同值重新运行n_clusters时,它将使用缓存树而不是每次重新计算。为了给您一个如何使用sklearn的gridsearch API执行此操作的示例:

from sklearn.cluster import AgglomerativeClustering
from sklearn.grid_search import GridSearchCV

ac = AgglomerativeClustering(memory='mycachedir', 
                             compute_full_tree=True)
classifier = GridSearchCV(ac, 
                          {n_clusters: range(2,6)}, 
                          scoring = 'adjusted_rand_score', 
                          n_jobs=-1, verbose=2)
classifier.fit(X,y)

答案 1 :(得分:0)

我知道这是一个老问题,但是下面的解决方案可能会有所帮助

# scores = input matrix

from scipy.cluster.hierarchy import linkage
from scipy.cluster.hierarchy import cut_tree
from sklearn.metrics import silhouette_score
from sklearn.metrics.pairwise import euclidean_distances

linkage_mat = linkage(scores, method="ward")
euc_scores = euclidean_distances(scores)

n_l = 2
n_h = scores.shape[0]

silh_score = -2
# Selecting the best number of clusters based on the silhouette score
for i in range(n_l, n_h):
    local_labels = list(cut_tree(linkage_mat, n_clusters=i).flatten())
    sc = silhouette_score(
        euc_scores,
        metric="precomputed",
        labels=local_labels,
        random_state=42)
    if silh_score < sc:
        silh_score = sc
        labels = local_labels

n_clusters = len(set(labels))
print(f"Optimal number of clusters: {n_clusters}")
print(f"Best silhouette score: {silh_score}")
# ...