我将R中的两个线性模型与Anova进行比较,我想在Java中做同样的事情。为了简化它,我从https://stats.stackexchange.com/questions/48854/why-am-i-getting-different-intercept-values-in-r-and-java-for-simple-linear-regr获取了示例代码并在下面对其进行了修改。模型为test_trait ~ geno_A + geno_B
和test_trait ~ geno_A + geno_B + geno_A:geno_B
。在R和Java中实现的模型的系数是相同的。在R中我使用anova(fit, fit2)
,其中拟合是lm的结果,在Java中,我使用TestUtils.oneWayAnovaPValue
中的org.apache.commons.math3
。
使用R我得到0.797
的pvalue,而使用Java我得到0.817
的pvalue,所以这不是正确的方法,但我找不到如何正确地做到这一点。在Java中是否有等价的R anova.lm
完整的代码如下。
[R
test_trait <- c( -0.48812477 , 0.33458213, -0.52754476, -0.79863471, -0.68544309, -0.12970239, 0.02355622, -0.31890850,0.34725819 , 0.08108851)
geno_A <- c(1, 0, 1, 2, 0, 0, 1, 0, 1, 0)
geno_B <- c(0, 0, 0, 1, 1, 0, 0, 0, 0, 0)
fit <- lm(test_trait ~ geno_A+geno_B)
fit2 <- lm(test_trait ~ geno_A + geno_B + geno_A:geno_B)
给出系数
> fit
Call:
lm(formula = test_trait ~ geno_A + geno_B)
Coefficients:
(Intercept) geno_A geno_B
-0.03233 -0.10479 -0.60492
> fit2
Call:
lm(formula = test_trait ~ geno_A + geno_B + geno_A:geno_B)
Coefficients:
(Intercept) geno_A geno_B geno_A:geno_B
-0.008235 -0.152979 -0.677208 0.096383
和Anova
> anova(fit, fit2) # 0.797
Analysis of Variance Table
Model 1: test_trait ~ geno_A + geno_B
Model 2: test_trait ~ geno_A + geno_B + geno_A:geno_B
Res.Df RSS Df Sum of Sq F Pr(>F)
1 7 0.77982
2 6 0.77053 1 0.0092897 0.0723 0.797
Java
double [] y = {-0.48812477, 0.33458213,
-0.52754476, -0.79863471,
-0.68544309, -0.12970239,
0.02355622, -0.31890850,
0.34725819, 0.08108851};
double [][] x = {{1,0}, {0,0},
{1,0}, {2,1},
{0,1}, {0,0},
{1,0}, {0,0},
{1,0}, {0,0}};
double [][] xb = {{1,0,0}, {0,0,0},
{1,0,0}, {2,1,2},
{0,1,0}, {0,0,0},
{1,0,0}, {0,0,0},
{1,0,0}, {0,0,0}};
OLSMultipleLinearRegression regr = new OLSMultipleLinearRegression();
regr.newSampleData(y, x);
double[] beta = regr.estimateRegressionParameters();
System.out.printf("First model: y = int + genoA + genoB\n");
System.out.printf("Intercept: %.3f\t", beta[0]);
System.out.printf("beta1: %.3f\t", beta[1]);
System.out.printf("beta2: %.3f\n\n", beta[2]);
regr.newSampleData(y, xb);
double[] betab = regr.estimateRegressionParameters();
System.out.printf("Second model: y = int + genoA + genoB + genoA:genoB\n");
System.out.printf("Intercept: %.3f\t", betab[0]);
System.out.printf("beta1: %.3f\t", betab[1]);
System.out.printf("beta2: %.3f\t", betab[2]);
System.out.printf("beta2: %.3f\n", betab[3]);
给出与R
中相同的系数First model: y = int + genoA + genoB
Intercept: -0.032 beta1: -0.105 beta2: -0.605
Second model: y = int + genoA + genoB + genoA:genoB
Intercept: -0.008 beta1: -0.153 beta2: -0.677 beta2: 0.096
但是Anova给出了不同的结果
List classes = new ArrayList();
classes.add(beta);
classes.add(betab);
double pvalue = TestUtils.oneWayAnovaPValue(classes);
double fvalue = TestUtils.oneWayAnovaFValue(classes);
System.out.println(pvalue);
System.out.println(fvalue);
0.8165390406874127
0.05979444576790511
答案 0 :(得分:2)
在比较两个回归的情况下,你非常误解ANOVA。这不是oneWayAnova
意义上的方差分析。 R中的onewayAnova
相当于函数aov
。另一方面,函数anova
实现了大量的模型比较测试,名称anova
令人困惑,至少可以说......
如果比较两个回归模型,则需要对平方和进行F检验。您在代码中执行的操作是单向ANOVA,以查看两组回归参数是否存在显着差异。这不是你想要做的,但这正是你的JAVA代码所做的。
为了计算正确的F测试,您需要执行以下操作:
通过将剩余平方和(RSS)除以自由度(df)来计算最大模型的MSE(在R表中:0.77053 / 6
通过减去两个模型的RSS来计算MSE差异(结果是R表中的“Sum of Sq。”),减去两个模型的df(结果是R表中的“Df”),并且划分这些数字。
将2除以1并得到F值
使用3中的F值计算p值,并使用分子中df-差异和分母中最大模型的df计算p值。
据我所知,类OLSMultipleLinearRegression没有任何方便的方法来提取自由度的数量,因此在Java中这不是直截了当的。您必须手动计算df,然后使用类FDistribution
计算p值。
例如:
OLSMultipleLinearRegression regr = new OLSMultipleLinearRegression();
regr.newSampleData(y, x);
double SSR1 = regr.calculateResidualSumOfSquares();
double df1 = y.length - (x[0].length + 1);
//df = n - number of coefficients, including intercept
regr.newSampleData(y, xb);
double SSR2 = regr.calculateResidualSumOfSquares();
double df2 = y.length - (xb[0].length + 1);
double MSE = SSR2/df2; // EDIT: You need the biggest model here!
double MSEdiff = Math.abs ((SSR2 - SSR1) / (df2 - df1));
double dfdiff = Math.abs(df2 - df1);
double Fval = MSEdiff / MSE;
FDistribution Fdist = new FDistribution(dfdiff, df2);
double pval = 1 - Fdist.cumulativeProbability(Fval);
现在,F值和p值都应该与您在R. df1
的anova()表中看到的完全相同,而df2
是R表中的列Res.Df
,R表中的差异应为Df
,而MSEdiff
应与R表中的Sum of Sq.
除以Df
相同。
免责声明:我是一个糟糕的JAVA程序员,因此上面的代码比实际代码更具概念性。请查找拼写错误或愚蠢的错误,并查看我在此处使用的FDistribution
课程的文档:
现在你知道为什么统计学家使用R而不是Java; - )
编辑:上面代码中使用的FDistribution
是类
org.apache.commons.math3.distribution.FDistribution
在JSci中还有一个FDistribution:
JSci.maths.statistics.FDistribution
如果您使用那个,代码的最后部分将变为:
FDistribution Fdist = new FDistribution(dfdiff, df2);
double pval = 1 - Fdist.cumulative(Fval);
根据具体实施情况,累积概率可能略有不同。我不知道差异和/或哪一个可以更好地信任。
答案 1 :(得分:1)
问题在于,您进行比较的方法并没有做同样的事情。
R中的据我所知,java中没有现成的功能可以轻松执行似然比测试。但你可以很容易地创建一个。 在R中,您可以执行以下操作
anova(fit, fit2,test="Chisq")
#p: 0.788
#or manually:
df.diff = fit$df.residual - fit2$df.residual
vals <- (sum(residuals(fit)^2) - sum(residuals(fit2)^2))/sum(residuals(fit2)^2) * fit2$df.residual
pchisq(vals, df.diff, lower.tail = FALSE)
#p: 0.7879634
所以你可以在java中采用相同的方法。在谷歌上进行的短搜索为我提供了java here中pchisq的实现(请注意,lower.tail = FALSE命令与1-pchisq(lower.tail = TRUE)相同,所以我们不要&#39;真的需要那个选项。)
这允许我们执行以下操作
public void regressionRun(){
OLSMultipleLinearRegression regr = new OLSMultipleLinearRegression();
OLSMultipleLinearRegression regr2 = new OLSMultipleLinearRegression();
double[] y = new double[] { -0.48812477, 0.33458213, -0.52754476,
-0.79863471, -0.68544309, -0.12970239, 0.02355622, -0.31890850,
0.34725819, 0.08108851 };
double[][] x = new double[10][];
double[][] x2 = new double[10][];
x[0] = new double[] { 1, 0 };
x[1] = new double[] { 0, 0 };
x[2] = new double[] { 1, 0 };
x[3] = new double[] { 2, 1 };
x[4] = new double[] { 0, 1 };
x[5] = new double[] { 0, 0 };
x[6] = new double[] { 1, 0 };
x[7] = new double[] { 0, 0 };
x[8] = new double[] { 1, 0 };
x[9] = new double[] { 0, 0 };
//
x2[0] = new double[] { 1, 0, 0 };
x2[1] = new double[] { 0, 0, 0 };
x2[2] = new double[] { 1, 0, 0 };
x2[3] = new double[] { 2, 1, 2 };
x2[4] = new double[] { 0, 1, 0 };
x2[5] = new double[] { 0, 0, 0 };
x2[6] = new double[] { 1, 0, 0 };
x2[7] = new double[] { 0, 0, 0 };
x2[8] = new double[] { 1, 0, 0 };
x2[9] = new double[] { 0, 0, 0 };
regr.newSampleData(y, x);
double[] b = regr.estimateResiduals();
regr2.newSampleData(y, x2);
double[] b2 = regr2.estimateResiduals();
//calculate sum of squares
double sumsq_b = 0;
double sumsq_b2 = 0;
for (double res : b){
sumsq_b += res**2;
}
for (double res : b2){
sumsq_b2 += res**2;
}
//calculate degrees of freedom
int df_b = y.length-(x[0].length+1);
int df_b2 = y.length-(x2[0].length+1);
double vals = (sumsq_b-sumsq_b2)/sumsq_b2*df_b2;
double pvalue = 1-pchisq(vals,df_b-df_b2);
System.out.println(pvalue);
}
//0.7879633810167291