导致收敛警告的原因(" degenerate Hessian
"等)
在进行模型的参数化自举时,与R' s glmer
一致?
当我适应初始模型时,我没有错误,但是引导可以在500个引导中引发多达50个警告。这些警告似乎与高度偏见的引导结果相关。 这种情况最有可能发生在样本量较小或概率相对较低或较高的情况下吗?我使用2x2因子设计建模数据,治疗组合的概率范围从 0.3到0.8。
我一直试图使用经典的蝾螈交配数据来复制这一点,但成效有限(下面的代码)。有时我可以运行500个bootstraps并获得4个错误,有时它会运行干净。减小样本量似乎与错误松散相关,但似乎最有可能产生" some bootstrap runs failed
"警告。
我真的很感兴趣从我的引导中获得好成绩,但我也很好奇为什么会这样。我可以理解为什么经典的非参数自举对于混合效果模型会有问题,特别是如果事情不平衡的话。但是对于参数化自举,我并不完全理解来自行为良好的模型的参数如何能够生成模拟数据,而这些数据无法通过相同的模型结构进行拟合。
蝾螈数据:
library(spaMM);data(salamander)
减少样本量的模型数据(例如,使用-c(1:100)
从数据帧中删除数据)
sala.redox <- glmer(Mate ~ TypeF + TypeM + (1|Cross),
data = salamander[-c(1:100), ],
family = binomial)
参数化bootstrap
confint(sala.redox, method = "boot",
nsim = 500, verbose = TRUE)