为什么glm.nb仅在非常具体的输入上抛出“缺失值”错误

时间:2012-07-31 22:30:41

标签: r statistics

glm.nb会在某些输入上引发异常错误。虽然有多种值会导致此错误,但即使非常稍微更改输入也可以防止错误。

可重现的例子:

set.seed(11)
pop <- rnbinom(n=1000,size=1,mu=0.05)
glm.nb(pop~1,maxit=1000)

运行此代码会引发错误:

Error in while ((it <- it + 1) < limit && abs(del) > eps) { : 
  missing value where TRUE/FALSE needed

起初我认为这与算法没有收敛有关。但是,我很惊讶地发现即使非常稍微改变输入也可以防止错误。例如:

pop[1000] <- pop[1000] + 1
glm.nb(pop~1,maxit=1000)

我发现它在1到500之间的19.4%的种子上抛出了这个错误:

fit.with.seed = function(s) {
    set.seed(s)
    pop <- rnbinom(n=1000, size=1, mu=0.05)
    m = glm.nb(pop~1, maxit=1000)
}

errors = sapply(1:500, function(s) {
    is.null(tryCatch(fit.with.seed(s), error=function(e) NULL))
})

mean(errors)

我在任何地方找不到此错误的one mention,在没有回复的帖子上。

可能导致此错误的原因是什么,以及如何修复(除了每次glm.nb抛出错误时随机置换输入?)

ETA:设置control=glm.control(maxit=200,trace = 3)发现theta.ml算法会因为变得非常大而变为-Inf,然后变为NaN

theta.ml: iter67 theta =5.77203e+15
theta.ml: iter68 theta =5.28327e+15
theta.ml: iter69 theta =1.41103e+16
theta.ml: iter70 theta =-Inf
theta.ml: iter71 theta =NaN

1 个答案:

答案 0 :(得分:6)

这有点粗糙,但过去我能够通过求助于最大似然估计来解决glm.nb的问题(即glm.nb中没有使用聪明的迭代估计算法)< / p>

一些poking / profiling表明theta参数的MLE实际上是无限的。我决定将它放在反比例尺上,这样我就可以将边界设置为0(一个更高级的版本会设置一个对数似然函数,它会在theta = 0处恢复为Poisson,但这会取消尝试的点。想出一个快速的罐装解决方案。)

上面给出了两个不好的例子,这种方法运行得相当好,虽然它确实警告参数拟合在边界上......

library(bbmle)
m1 <- mle2(Y~dnbinom(mu=exp(logmu),size=1/invk),
           data=d1,
           parameters=list(logmu~X1+X2+offset(X3)),
           start=list(logmu=0,invk=1),
           method="L-BFGS-B",
           lower=c(rep(-Inf,12),1e-8))

第二个例子实际上更有趣,因为它在数字上证明了theta的MLE基本上是无限的,即使我们有一个大小合适的数据集,它是从负二项式偏差产生的(或者我对某些东西感到困惑)。 ..)

set.seed(11);pop <- rnbinom(n=1000,size=1,mu=0.05);glm.nb(pop~1,maxit=1000)
m2 <- mle2(pop~dnbinom(mu=exp(logmu),size=1/invk),
           data=data.frame(pop),
           start=list(logmu=0,invk=1),
           method="L-BFGS-B",
           lower=c(-Inf,1e-8))