我正在努力解释随机效应面板概率回归中的sigma,为什么这个术语非常重要。
我使用了以下fit调用:
Model<-pglm(Variable_to_explain ~ v1 + v2 + v3 + v2*v3,
model=("random"),
effect=("twoways"),
index=c("indiv", "period"),
family=binomial(link="probit"), data=data)
这里是估计值的R输出。我不明白sigma的作用是什么意思。
Maximum Likelihood estimation
Newton-Raphson maximisation, 5 iterations
Return code 1: gradient close to zero
Log-Likelihood: -522.9742
6 free parameters
Estimates:
Estimate Std. error t value Pr(> t)
(Intercept) 0.1454 0.2450 0.594 0.55277
v1 -0.0724 0.1416 -0.511 0.60926
v2 0.5367 0.1814 2.959 0.00308 **
v3 0.2689 0.1728 1.556 0.11969
v2:v3 -0.4523 0.2393 -1.890 0.05871 .
sigma 0.4891 0.1048 4.667 3.06e-06 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
--------------------------------------------
任何帮助将不胜感激。