比较回归系数时如何解释线性假设函数的结果?

时间:2019-02-09 22:37:35

标签: r regression

为了检验两个回归系数是否显着不同,我使用了线性假设函数。您知道如何解释这些结果吗?

这是我的输出:

  

linearHypothesis(fit4.beta,“ bfi2.e = bfi2.a”)   线性假设检验

假设: bfi2.e-bfi2.a = 0

模型1:受限模型
模型2: mod.ipip.hexaco ~ bfi2.e + bfi2.n + bfi2.a + bfi2.o + bfi2.c

Res.Df    RSS Df Sum of Sq      F    Pr(>F)    
1    722 302.27                                  
2    721 264.06  1    38.214 104.34 < 2.2e-16 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

1 个答案:

答案 0 :(得分:0)

除t统计量外,该统计量还检验了t中每个变量的预测能力 如果存在其他所有测试,则可以使用的另一项测试是F检验。 (这是您将在线性模型底部获得的F检验)

这将检验所有β均等于零的零假设 允许他们采用任何值的替代方法。如果我们拒绝这个零假设 (我们这样做是因为p值很小),这与在那儿说的一样 有足够的证据可以得出结论,至少其中一个协变量具有预测性 线性模型的功效,也就是说,使用回归预测比 只是猜测平均值。

因此,基本上,您正在测试所有系数是否都为零或其他任意线性假设,而不是t检验,即您正在测试各个系数。