R中的聚类时间序列-K均值准确吗?

时间:2020-03-02 20:26:50

标签: r time-series cluster-analysis distance-matrix dtw

我的数据集由对105个国家(行)的14年(列)的相同指数进行测量而构成。我想根据其随时间变化的指数对国家进行分类。

我正在尝试利用DTW距离矩阵(hclust软件包)进行分层聚类(pam)和K Medoids(dtw)。

我也尝试使用DTW距离矩阵作为函数kmeans的第一个参数的K Mean。该算法有效,但是我不确定它的准确性,因为K Mean利用Eucledian Distance并计算质心作为均值。

我也在考虑直接使用数据,但是我不明白结果的准确性如何,因为该算法会将随时间变化的同一变量的不同度量视为不同的变量,以便在每次迭代时计算质心。欧氏距离以将观测值分配给聚类。在我看来,这个过程似乎不能对时间序列进行聚类,也不能对Hierarchical和K Medoids进行聚类。

在对时间序列进行聚类时,K Mean算法是一个不错的选择吗?还是最好使用利用距离概念作为DTW的算法(但速度较慢)?它是否存在一个R函数,该函数允许将K Mean算法与距离矩阵或特定的包一起使用来对时间序列数据进行聚类?

2 个答案:

答案 0 :(得分:0)

KMeans会完全按照您的指示去做。不幸的是,尝试将时间序列数据集馈入KMeans算法将导致毫无意义的结果。 KMeans算法和大多数常规聚类方法都是围绕欧几里得距离建立的,这似乎不是衡量时间序列数据的好方法。很简单,当聚类不是圆形时,K均值通常不起作用,因为它使用某种距离函数并且距离聚类中心的距离是测量的。签出GMM算法作为替代方案。听起来好像您要使用R进行本实验。如果是这样,请查看下面的示例代码。

这是一个KMeans集群。

enter image description here

这是一个GMM集群。

enter image description here

哪一个看起来更像是一个时间序列图??

我在Google周围搜索了一个很好的R代码示例,以演示GMM集群的工作原理。不幸的是,我找不到任何体面的东西。就个人而言,我使用Python比使用R多得多。如果您愿意使用Python解决方案,请查看下面的示例代码。

import numpy as np
import itertools

from scipy import linalg
import matplotlib.pyplot as plt
import matplotlib as mpl

from sklearn import mixture

print(__doc__)

# Number of samples per component
n_samples = 500

# Generate random sample, two components
np.random.seed(0)
C = np.array([[0., -0.1], [1.7, .4]])
X = np.r_[np.dot(np.random.randn(n_samples, 2), C),
          .7 * np.random.randn(n_samples, 2) + np.array([-6, 3])]

lowest_bic = np.infty
bic = []
n_components_range = range(1, 7)
cv_types = ['spherical', 'tied', 'diag', 'full']
for cv_type in cv_types:
    for n_components in n_components_range:
        # Fit a Gaussian mixture with EM
        gmm = mixture.GaussianMixture(n_components=n_components,
                                      covariance_type=cv_type)
        gmm.fit(X)
        bic.append(gmm.bic(X))
        if bic[-1] < lowest_bic:
            lowest_bic = bic[-1]
            best_gmm = gmm

bic = np.array(bic)
color_iter = itertools.cycle(['navy', 'turquoise', 'cornflowerblue',
                              'darkorange'])
clf = best_gmm
bars = []

# Plot the BIC scores
plt.figure(figsize=(8, 6))
spl = plt.subplot(2, 1, 1)
for i, (cv_type, color) in enumerate(zip(cv_types, color_iter)):
    xpos = np.array(n_components_range) + .2 * (i - 2)
    bars.append(plt.bar(xpos, bic[i * len(n_components_range):
                                  (i + 1) * len(n_components_range)],
                        width=.2, color=color))
plt.xticks(n_components_range)
plt.ylim([bic.min() * 1.01 - .01 * bic.max(), bic.max()])
plt.title('BIC score per model')
xpos = np.mod(bic.argmin(), len(n_components_range)) + .65 +\
    .2 * np.floor(bic.argmin() / len(n_components_range))
plt.text(xpos, bic.min() * 0.97 + .03 * bic.max(), '*', fontsize=14)
spl.set_xlabel('Number of components')
spl.legend([b[0] for b in bars], cv_types)

# Plot the winner
splot = plt.subplot(2, 1, 2)
Y_ = clf.predict(X)
for i, (mean, cov, color) in enumerate(zip(clf.means_, clf.covariances_,
                                           color_iter)):
    v, w = linalg.eigh(cov)
    if not np.any(Y_ == i):
        continue
    plt.scatter(X[Y_ == i, 0], X[Y_ == i, 1], .8, color=color)

    # Plot an ellipse to show the Gaussian component
    angle = np.arctan2(w[0][1], w[0][0])
    angle = 180. * angle / np.pi  # convert to degrees
    v = 2. * np.sqrt(2.) * np.sqrt(v)
    ell = mpl.patches.Ellipse(mean, v[0], v[1], 180. + angle, color=color)
    ell.set_clip_box(splot.bbox)
    ell.set_alpha(.5)
    splot.add_artist(ell)

plt.xticks(())
plt.yticks(())
plt.title('Selected GMM: full model, 2 components')
plt.subplots_adjust(hspace=.35, bottom=.02)
plt.show()

enter image description here

Finall,从下面的图片中,您可以清楚地看到

答案 1 :(得分:0)

这里是example of how to visualize clusters using plotGMM。要复制的代码如下:

require(quantmod)
SCHB  <- fortify(getSymbols('SCHB', auto.assign=FALSE))
set.seed(730) # for reproducibility
mixmdl <- mixtools::normalmixEM(Cl(SCHB), k = 5); plot_GMM(mixmdl, k = 5) # 5 clusters
plot_GMM(mixmdl, k = 5)

我希望能有所帮助。哦,要绘制ggplot2的时间序列,您应该利用ggplot2的fortify function。希望有帮助。