计算R中前两个主成分的最快方法是什么?

时间:2011-11-28 17:03:47

标签: r pca eigenvector eigenvalue

我在R中使用princomp来执行PCA。我的数据矩阵很大(10K x 10K,每个值最多4个小数点)。在Xeon 2.27 GHz处理器上需要大约3.5小时和~6.5 GB的物理内存。

由于我只想要前两个组件,有没有更快的方法呢?

更新:

除了速度之外,还有一种内存有效的方法吗?

使用svd(,2,)计算前两个组件需要大约2小时和~6.3 GB的物理内存。

8 个答案:

答案 0 :(得分:19)

您有时可以访问所谓的“经济”分解,这些分解允许您限制特征值/特征向量的数量。看起来eigen()prcomp()不提供此功能,但svd()允许您指定要计算的最大数量。

在小矩阵上,收益似乎不大:

R> set.seed(42); N <- 10; M <- matrix(rnorm(N*N), N, N)
R> library(rbenchmark)
R> benchmark(eigen(M), svd(M,2,0), prcomp(M), princomp(M), order="relative")
          test replications elapsed relative user.self sys.self user.child
2 svd(M, 2, 0)          100   0.021  1.00000      0.02        0          0
3    prcomp(M)          100   0.043  2.04762      0.04        0          0
1     eigen(M)          100   0.050  2.38095      0.05        0          0
4  princomp(M)          100   0.065  3.09524      0.06        0          0
R> 

但从princomp()重建princomp()时,相对于svd()的因子可能值三分,因为svd()允许您在两个值之后停止。

答案 1 :(得分:6)

'svd'包通过Lanczos算法提供截断的SVD /特征分解的例程。您可以使用它来计算前两个主要组件。

我在这里:

> library(svd)
> set.seed(42); N <- 1000; M <- matrix(rnorm(N*N), N, N)
> system.time(svd(M, 2, 0))
   user  system elapsed 
  7.355   0.069   7.501 
> system.time(princomp(M))
   user  system elapsed 
  5.985   0.055   6.085 
> system.time(prcomp(M))
   user  system elapsed 
  9.267   0.060   9.368 
> system.time(trlan.svd(M, neig = 2))
   user  system elapsed 
  0.606   0.004   0.614 
> system.time(trlan.svd(M, neig = 20))
   user  system elapsed 
  1.894   0.009   1.910
> system.time(propack.svd(M, neig = 20))
   user  system elapsed 
  1.072   0.011   1.087 

答案 2 :(得分:4)

我尝试了pcaMethods包的nipals算法的实现。默认情况下,它计算前2个主要组件。结果比其他建议的方法慢。

set.seed(42); N <- 10; M <- matrix(rnorm(N*N), N, N)
library(pcaMethods)
library(rbenchmark)
m1 <- pca(M, method="nipals", nPcs=2)
benchmark(pca(M, method="nipals"),
          eigen(M), svd(M,2,0), prcomp(M), princomp(M), order="relative")

                       test replications elapsed relative user.self sys.self
3              svd(M, 2, 0)          100    0.02      1.0      0.02        0
2                  eigen(M)          100    0.03      1.5      0.03        0
4                 prcomp(M)          100    0.03      1.5      0.03        0
5               princomp(M)          100    0.05      2.5      0.05        0
1 pca(M, method = "nipals")          100    0.23     11.5      0.24        0

答案 3 :(得分:1)

power method可能就是你想要的。如果你用R编写它,这根本不难,我想你可能会发现它并不比其他答案中建议的SVD方法快,后者利用LAPACK编译的例程。

答案 4 :(得分:0)

您可以使用神经网络方法来查找主要组件。 这里给出了基本的描述.. http://www.heikohoffmann.de/htmlthesis/node26.html

第一主成分,y = w1 * x1 + w2 * x2 第二正交分量可以计算为q = w2 * x1-w1 * x2。

答案 5 :(得分:0)

&#34; gmodels&#34;和&#34; corpcor&#34; R软件包具有更快的SVD和PCA实现。这些功能与小型矩阵的核心版本类似:

> set.seed(42); N <- 10; M <- matrix(rnorm(N*N), N*N, N)
> library("rbenchmark")
> library("gmodels")    
> benchmark(svd(M,2,0), svd(M), gmodels::fast.svd(M), corpcor::fast.svd(M), prcomp(M), gmodels::fast.prcomp(M), princomp(M), order="relative")
                     test replications elapsed relative user.self sys.self user.child sys.child
1            svd(M, 2, 0)          100   0.005      1.0     0.005    0.000          0         0
2                  svd(M)          100   0.006      1.2     0.005    0.000          0         0
3    gmodels::fast.svd(M)          100   0.007      1.4     0.006    0.000          0         0
4    corpcor::fast.svd(M)          100   0.007      1.4     0.007    0.000          0         0
6 gmodels::fast.prcomp(M)          100   0.014      2.8     0.014    0.000          0         0
5               prcomp(M)          100   0.015      3.0     0.014    0.001          0         0
7             princomp(M)          100   0.030      6.0     0.029    0.001          0         0
> 

但是,它们为较大的矩阵(特别是那些行数较多的矩阵)提供了更快的结果。

> set.seed(42); N <- 10; M <- matrix(rnorm(N*N), N*N*N, N)
> library("rbenchmark")
> library("gmodels")
> benchmark(svd(M,2,0), svd(M), gmodels::fast.svd(M), corpcor::fast.svd(M), prcomp(M), gmodels::fast.prcomp(M), order="relative")

                     test replications elapsed relative user.self sys.self user.child sys.child
4    corpcor::fast.svd(M)          100   0.029    1.000     0.028    0.001          0         0
3    gmodels::fast.svd(M)          100   0.035    1.207     0.033    0.001          0         0
2                  svd(M)          100   0.037    1.276     0.035    0.002          0         0
1            svd(M, 2, 0)          100   0.039    1.345     0.037    0.001          0         0
5               prcomp(M)          100   0.068    2.345     0.061    0.006          0         0
6 gmodels::fast.prcomp(M)          100   0.068    2.345     0.060    0.007          0         0

答案 6 :(得分:0)

令我惊讶的是,还没有人提到irlba软件包:

它甚至比svd的{​​{1}}快一点, 提供propack.svd类似于irlba::prcomp_irlba(X, n=2)的界面,以方便使用和 对于大小可变的矩形矩阵(2:1),不需要在以下基准测试中进行参数调整。对于大小为6000x3000的矩阵,它比stats::prcomp快50倍。不过,对于小于100x50的矩阵,stats::prcomp仍然更快。

benchmark results

stats::svd

library(microbenchmark) library(tidyverse) #install.packages("svd","corpcor","irlba","rsvd") exprs <- rlang::exprs( svd(M, 2, 2)$v, prcomp(M)$rotation[,1:2], irlba::prcomp_irlba(M, n=2)$rotation, irlba::svdr(M, k=2)$v, rsvd::rsvd(M, 2)$v, svd::propack.svd(M, neig=2, opts=list(maxiter=100))$v, corpcor::fast.svd(M)$v[,1:2] ) set.seed(42) tibble(N=c(10,30,100,300,1000,3000)) %>% group_by(N) %>% do({ M <- scale(matrix(rnorm(.$N*.$N*2), .$N*2, .$N)) microbenchmark(!!!exprs, times=min(100, ceiling(3000/.$N)))%>% as_tibble }) %>% ggplot(aes(x=N, y=time/1E9,color=expr)) + geom_jitter(width=0.05) + scale_x_log10("matrix size (2N x N)") + scale_y_log10("time [s]") + stat_summary(fun.y = median, geom="smooth") + scale_color_discrete(labels = partial(str_wrap, width=30)) 提供的随机svd更快,但不幸的是,还差得很远:

rsvd
set.seed(42)
N <- 1000
M <- scale(matrix(rnorm(N^2*2), N*2, N))
cor(set_colnames(sapply(exprs, function(x) eval(x)[,1]), sapply(exprs, deparse)))

当数据实际上具有结构时,这可能更好。

答案 7 :(得分:-1)

你可以自己编写这个函数并停在2个组件上。这不是太困难。我把它放在某个地方,如果我发现它会发布它。