MCMCglmm给出了与lme4截然不同的结果 - 如何诊断问题?

时间:2016-05-04 13:40:00

标签: r bayesian

我正在对一些新项目进行贝叶斯分析。我有一些是/否数据,以及三种固定效果,目前我只是采取随机截距(后面我会担心随机斜率)。我还坚持使用默认的先前设置,因为一旦我确定了我将要使用的图书馆等,我就会担心这一点。

如果我使用lme4运行glmm,我会得到:

summary(glmer(gesture~vis*comm*task+(1|subject), dat, family="binomial"))
Generalized linear mixed model fit by maximum likelihood (Laplace
Approximation) [glmerMod]
Family: binomial  ( logit )
Formula: gesture ~ vis * comm * task + (1 | subject)
Data: dat

AIC      BIC   logLik deviance df.resid 
513.0    569.6   -243.5    487.0      562 

Scaled residuals: 
Min      1Q  Median      3Q     Max 
-3.9970 -0.4008 -0.0662  0.3445  3.9459 

Random effects:
Groups  Name        Variance Std.Dev.
subject (Intercept) 7.527    2.744   
Number of obs: 575, groups:  subject, 48

Fixed effects:
                        Estimate Std. Error z value Pr(>|z|)    
(Intercept)                 -3.41133    0.83651  -4.078 4.54e-05 ***
visvisible                  -0.03572    0.73199  -0.049   0.9611    
commtape                     0.87192    1.13579   0.768   0.4427    
taskact                      5.75031    0.91292   6.299 3.00e-10 ***
taskani                      3.27341    0.76841   4.260 2.04e-05 ***
visvisible:commtape          0.02226    1.03044   0.022   0.9828    
visvisible:taskact          -1.27673    1.00445  -1.271   0.2037    
visvisible:taskani           0.42952    0.95662   0.449   0.6534    
commtape:taskact            -1.91736    1.13234  -1.693   0.0904 .  
commtape:taskani            -0.86535    1.02607  -0.843   0.3990    
visvisible:commtape:taskact  1.13058    1.36033   0.831   0.4059    
visvisible:commtape:taskani -0.08530    1.32874  -0.064   0.9488    

所以现在我尝试使用MCMCglmm:

m = MCMCglmm(
gesture ~ vis * comm * task, 
random=~subject, 
data=dat, 
family="categorical",
verbose=F)

获得以下输出:

Iterations = 3001:12991
 Thinning interval  = 10
 Sample size  = 1000 

 DIC: 24.22676 

 G-structure:  ~subject

        post.mean l-95% CI u-95% CI eff.samp
subject     25172    487.6    53908    2.488

 R-structure:  ~units

      post.mean l-95% CI u-95% CI eff.samp
units      9486    295.7    17854    2.103

 Location effects: gesture ~ vis * comm * task 

                            post.mean  l-95% CI  u-95% CI eff.samp  pMCMC    
(Intercept)                 -173.2727 -334.1856  -30.9605    4.813 <0.001 ***
visvisible                     4.3220  -67.1333   82.1748   58.509  0.910    
commtape                      47.8088  -64.3913  194.5895   46.842  0.380    
taskact                      282.8265   49.6004  465.3049    2.952 <0.001 ***
taskani                      169.3790   23.3087  303.2590    6.197 <0.001 ***
visvisible:commtape           -7.5823 -130.7870   89.6066   54.957  0.878    
visvisible:taskact           -52.1963 -158.5566   67.1533   44.944  0.252    
visvisible:taskani            18.4001  -86.3001  136.4961   48.813  0.708    
commtape:taskact             -94.0063 -234.2362    8.6195   15.732  0.062 .  
commtape:taskani             -52.2950 -179.9766   37.5422   32.639  0.320    
visvisible:commtape:taskact   48.8714  -97.5667  216.0025   30.265  0.434    
visvisible:commtape:taskani    0.2211 -139.2106  157.8038   71.036  0.990

所以&#34;好消息&#34;这两种方法的统计显着性模式是相同的。但我的印象是,转向这些新方法的优势在于提供更有效的效果大小估计。如果我们看两种情况下的估算值,那就有很大差异。

所以,出了点问题。

问题:

  • 如果我只是查看MCMCglmm输出,我应该注意什么作为警告标志?

  • 更一般地说,是否有关于此软件包以及如何解释输出的信息的良好来源?

  • 我的分析的下一步应该是什么?我尝试过增加额外费用,但如果有的话,这会让问题变得更糟。我猜这意味着我无法接近收敛,我需要增加参数的燃烧,并可能增加瘦?

谢谢你的帮助

1 个答案:

答案 0 :(得分:0)

对于MCMCglmm中的family="categorical",响应变量必须是一个因子。在从lme4二项式模型切换到MCMCglmm分类模型时,您没有提到将响应转换为因子。