我有一个相当简单的问题,需要在matlab中解决。我想我理解,但我需要有人澄清我正确地做到了这一点:
在下面的例子中,我试图计算两个向量之间的相关性和相关性的p值。
dat = [1,3,45,2,5,56,75,3,3.3];
dat2 = [3,33,5,6,4,3,2,5,7];
[R,p] = corrcoef(dat,dat2,'rows','pairwise');
R2 = R(1,2).^2;
pvalue = p(1,2);
由此我的R2值为0.11,p值为0.38。这是否意味着向量相关性为0.11(即11%),预计这种情况会发生相同的38%,因此62%的时间可能会出现不同的相关性?
答案 0 :(得分:4)
>> [R,p] = corrcoef(dat,dat2,'rows','pairwise')
R =
1.0000 -0.3331
-0.3331 1.0000
p =
1.0000 0.3811
0.3811 1.0000
相关系数为-0.3331,p值为0.3811。后者是当真实相关为零时,随机性获得与-0.3331相关的概率的概率。 p值很大,因此我们不能拒绝在任何合理显着性水平上无相关的零假设。
答案 1 :(得分:3)
这里的相关系数是
r(1,2)
ans =
-0.3331
是-33.3%的相关性,它告诉您两个数据集呈负线性相关。您可以通过绘制它们来看到这一点:
plot(dat, dat2, '.'), grid, lsline
相关性的p值是
p(1,2)
ans =
0.3811
这告诉您,即使两个随机变量之间存在无相关性,那么在9个观察值的样本中,您可能会看到相关 at至少极端为-33.3%,约占38.1%的时间。
至少作为极端,我们的意思是样本中的测量相关性将低于-33.3%,或高于33.3%。
鉴于p值如此之大,你不能可靠地得出关于是否应该拒绝零相关零假设的任何结论。