按组拟合线性回归模型得到NaN p值

时间:2016-09-16 15:24:22

标签: r regression linear-regression lm

我正在使用plyr::ddply来运行回归模型

model <- rating ~ A + B + C + D + E + F

由因子resp.id。我可以通过以下因素创建beta的数据框:

indiv.betas <- ddply(data.coded, "resp.id",
                     function(df) coef(lm(model, data=df)))

我现在正尝试使用以下因素提取变量的p值:

indiv.pvalues <- ddply(data.coded, "resp.id",
                       function(df) coef(summary(lm(model, data=df)))[, "Pr(>|t|)"])

不幸的是,它只是给了我一个NaN的数据框。

虽然,如果我在整个数据集中运行模型,我可以成功地从这一个模型中提取p值作为数据框:

pvalue <- as.data.frame(coef(summary(lm(model, data=df)))[, "Pr(>|t|)"])

如何按因子创建p值的数据框?

感谢。

1 个答案:

答案 0 :(得分:1)

适合单个模型时

rating ~ A + B + C + D + E + F

你得到有意义的非NA结果。当您按resp.id为每个子集/因子级别拟合相同的模型时,会得到NaN结果。我100%确定在某些因素级别,您没有足够的数据来适应上述模型。首先检查每个组的数据量是个好主意。您可以使用:

N <- with(data.coded, tapply(rating, resp.id, FUN = length))

您的模型有7个系数(1表示截距,1表示A,B,...,F)。因此which(N < 7)会告诉您哪些因素水平正在产生NaN

在这部分中,我将展示我无法使用iris数据集重现您的问题。

library(plyr)

model <- Sepal.Length ~ Sepal.Width + Petal.Length + Petal.Width

ddply(iris, "Species", function(df) coefficients(lm(model, data=df)))

#     Species (Intercept) Sepal.Width Petal.Length Petal.Width
#1     setosa    2.351890   0.6548350    0.2375602   0.2521257
#2 versicolor    1.895540   0.3868576    0.9083370  -0.6792238
#3  virginica    0.699883   0.3303370    0.9455356  -0.1697527

ddply(iris, "Species", function(df) coef(summary(lm(model, data=df)))[, 4])

#     Species  (Intercept)  Sepal.Width Petal.Length Petal.Width
#1     setosa 3.034183e-07 6.834434e-09 2.593594e-01    0.470987
#2 versicolor 5.112246e-04 6.488965e-02 1.666695e-06    0.125599
#3  virginica 1.961563e-01 6.439972e-02 1.074269e-13    0.395875

在这部分中,我将展示当系数多于数据时NaN出现的原因。

set.seed(0);
x1 <- rnorm(3); x2 <- rnorm(3); x3 <- rnorm(3)
y <- rnorm(3)

fit <- lm(y ~ x1 + x2 + x3)  ## 3 data, 4 coefficients

coef(summary(fit))
#             Estimate Std. Error t value Pr(>|t|)
#(Intercept) 0.4217653        NaN     NaN      NaN
#x1          0.4124869        NaN     NaN      NaN
#x2          1.1489330        NaN     NaN      NaN