最具代表性的集群实例

时间:2010-01-18 17:03:54

标签: r cluster-analysis machine-learning data-mining

对我的数据集(名为 data.matrix 的数据集)执行群集分析后,我在末尾添加了一个名为 cluster 的新列(第27列)包含每个实例所属的群集名称。

我现在想要的是来自每个群集的代表性实例。我试图从群集的质心中找到与欧氏距离最小的实例(并为我的每个群集重复该过程)

这就是我所做的。你能想到其他 - 或许更优雅的方式吗? (假设没有空值的数字列)。

clusters <- levels(data.matrix$cluster)
cluster_col = c(27)

for (j in 1:length(clusters)) {
    # get the subset for cluster j
    data = data.matrix[data.matrix$cluster == clusters[j],]

    # remove the cluster column
    data <- data[,-cluster_col]

    # calculate the centroid
    cent <- mean(data)

    # copy data to data.matrix_cl, attaching a distance column at the end
    data.matrix_cl <- cbind(data, dist = apply(data, 1, function(x) {sqrt(sum((x - cent)^2))}))

    # get instances with min distance
    candidates <- data.matrix_cl[data.matrix_cl$dist == min(data.matrix_cl$dist),]

    # print their rownames
    print(paste("Candidates for cluster ",j))
    print(rownames(candidates))
}

2 个答案:

答案 0 :(得分:5)

首先,如果您的距离公式合适,我现在不会。我认为应该有sqrt(sum((x-cent)^2))sum(abs(x-cent))。我先假设。 第二个想法是,只是打印解决方案并不是一个好主意。所以我先计算,然后打印。 第三 - 我建议使用plyr,但我同时给予(有和没有plyr)解决方案。

# Simulated data:
n <- 100
data.matrix <- cbind(
  data.frame(matrix(runif(26*n), n, 26)),
  cluster=sample(letters[1:6], n, replace=TRUE)
)
cluster_col <- which(names(data.matrix)=="cluster")

# With plyr:
require(plyr)
candidates <- dlply(data.matrix, "cluster", function(data) {
  dists <- colSums(laply(data[, -cluster_col], function(x) (x-mean(x))^2))
  rownames(data)[dists==min(dists)]
})

l_ply(names(candidates), function(c_name, c_list=candidates[[c_name]]) {
    print(paste("Candidates for cluster ",c_name))
    print(c_list)
})

# without plyr
candidates <- tapply(
  1:nrow(data.matrix),
  data.matrix$cluster,
  function(id, data=data.matrix[id, ]) {
    dists <- rowSums(sapply(data[, -cluster_col], function(x) (x-mean(x))^2))
    rownames(data)[dists==min(dists)]
  }
)

invisible(lapply(names(candidates), function(c_name, c_list=candidates[[c_name]]) {
    print(paste("Candidates for cluster ",c_name))
    print(c_list)
}))

答案 1 :(得分:1)

您对“ k-means群集”感兴趣的技术是什么?如果是这样,这里是每次迭代时如何计算质心:

  1. 选择一个k值(一个整数) 指定要的簇数 划分你的数据集);

  2. 从数据中随机选择k行 设置,那些是质心 第一次迭代;

  3. 计算每个的距离 数据点来自每个质心;

  4. 每个数据点都有一个'最接近的 质心',这决定了它 '组';

  5. 计算每个人的平均值     组 - 这些是新的质心;

  6. 回到第3步(停止标准 通常是基于与...的比较 各个质心值 连续循环,即,如果它们 值变化不超过0.01%, 然后退出)。

  7. 代码中的那些步骤:

    # toy data set
    mx = matrix(runif60, 10, 99), nrow=12, ncol=5, byrow=F)
    cndx = sample(nrow(mx), 2)
    # the two centroids at iteration 1
    cn1 = mx[cndx[1],]
    cn2 = mx[cndx[2],]
    # to calculate Pearson similarity
    fnx1 = function(a){sqrt((cn1[1] - a[1])^2 + (cn1[2] - a[2])^2)}
    fnx2 = function(a){sqrt((cn2[1] - a[1])^2 + (cn2[2] - a[2])^2)}
    # calculate distance matrix
    dx1 = apply(mx, 1, fnx1)
    dx2 = apply(mx, 1, fnx2)
    dx = matrix(c(dx1, dx2), nrow=2, ncol=12)
    # index for extracting the new groups from the data set
    ndx = apply(dx, 1, which.min)
    group1 = mx[ndx==1,]
    group2 = mx[ndx==2,]
    # calculate the new centroids for the next iteration
    new_cnt1 = apply(group1, 2, mean)
    new_cnt2 = apply(group2, 2, mean)