Java中的anova.lm()是否有等效函数?

时间:2016-02-14 22:43:47

标签: java r linear-regression anova apache-commons-math

我将R中的两个线性模型与Anova进行比较,我想在Java中做同样的事情。为了简化它,我从https://stats.stackexchange.com/questions/48854/why-am-i-getting-different-intercept-values-in-r-and-java-for-simple-linear-regr获取了示例代码并在下面对其进行了修改。模型为test_trait ~ geno_A + geno_Btest_trait ~ geno_A + geno_B + geno_A:geno_B。在R和Java中实现的模型的系数是相同的。在R中我使用anova(fit, fit2),其中拟合是lm的结果,在Java中,我使用TestUtils.oneWayAnovaPValue中的org.apache.commons.math3

使用R我得到0.797的pvalue,而使用Java我得到0.817的pvalue,所以这不是正确的方法,但我找不到如何正确地做到这一点。在Java中是否有等价的R anova.lm

完整的代码如下。

[R

test_trait <- c( -0.48812477 , 0.33458213, -0.52754476, -0.79863471, -0.68544309, -0.12970239,  0.02355622, -0.31890850,0.34725819 , 0.08108851)
geno_A <- c(1, 0, 1, 2, 0, 0, 1, 0, 1, 0)
geno_B <- c(0, 0, 0, 1, 1, 0, 0, 0, 0, 0) 
fit <- lm(test_trait ~ geno_A+geno_B)
fit2 <- lm(test_trait ~ geno_A + geno_B + geno_A:geno_B)

给出系数

> fit
Call:
lm(formula = test_trait ~ geno_A + geno_B)

Coefficients:
(Intercept)       geno_A       geno_B  
   -0.03233     -0.10479     -0.60492  

> fit2
Call:
lm(formula = test_trait ~ geno_A + geno_B + geno_A:geno_B)

Coefficients:
  (Intercept)         geno_A         geno_B  geno_A:geno_B  
    -0.008235      -0.152979      -0.677208       0.096383  

和Anova

> anova(fit, fit2) # 0.797 
Analysis of Variance Table

Model 1: test_trait ~ geno_A + geno_B
Model 2: test_trait ~ geno_A + geno_B + geno_A:geno_B
  Res.Df     RSS Df Sum of Sq      F Pr(>F)
1      7 0.77982                           
2      6 0.77053  1 0.0092897 0.0723  0.797

Java

    double [] y =  {-0.48812477,  0.33458213,  
            -0.52754476, -0.79863471,
            -0.68544309, -0.12970239,
             0.02355622, -0.31890850,
             0.34725819,  0.08108851};
double [][] x = {{1,0}, {0,0},
                 {1,0}, {2,1},
                 {0,1}, {0,0},
                 {1,0}, {0,0},
                 {1,0}, {0,0}};
double [][] xb = {{1,0,0}, {0,0,0},
                  {1,0,0}, {2,1,2},
                  {0,1,0}, {0,0,0},
                  {1,0,0}, {0,0,0},
                  {1,0,0}, {0,0,0}};

OLSMultipleLinearRegression regr = new OLSMultipleLinearRegression();
regr.newSampleData(y, x);
double[] beta = regr.estimateRegressionParameters();   

System.out.printf("First model: y = int + genoA + genoB\n");
System.out.printf("Intercept: %.3f\t", beta[0]);
System.out.printf("beta1: %.3f\t", beta[1]);
System.out.printf("beta2: %.3f\n\n", beta[2]);

regr.newSampleData(y, xb);
double[] betab = regr.estimateRegressionParameters();   

System.out.printf("Second model: y = int + genoA + genoB + genoA:genoB\n");
System.out.printf("Intercept: %.3f\t", betab[0]);
System.out.printf("beta1: %.3f\t", betab[1]);
System.out.printf("beta2: %.3f\t", betab[2]);
System.out.printf("beta2: %.3f\n", betab[3]);

给出与R

中相同的系数
First model: y = int + genoA + genoB
Intercept: -0.032   beta1: -0.105   beta2: -0.605

Second model: y = int + genoA + genoB + genoA:genoB
Intercept: -0.008   beta1: -0.153   beta2: -0.677   beta2: 0.096

但是Anova给出了不同的结果

List classes = new ArrayList();
classes.add(beta);
classes.add(betab);
double pvalue = TestUtils.oneWayAnovaPValue(classes);
double fvalue = TestUtils.oneWayAnovaFValue(classes);
System.out.println(pvalue); 
System.out.println(fvalue); 

0.8165390406874127
0.05979444576790511

2 个答案:

答案 0 :(得分:2)

在比较两个回归的情况下,你非常误解ANOVA。这不是oneWayAnova意义上的方差分析。 R中的onewayAnova相当于函数aov。另一方面,函数anova实现了大量的模型比较测试,名称anova令人困惑,至少可以说......

如果比较两个回归模型,则需要对平方和进行F检验。您在代码中执行的操作是单向ANOVA,以查看两组回归参数是否存在显着差异。这不是你想要做的,但这正是你的JAVA代码所做的。

为了计算正确的F测试,您需要执行以下操作:

  1. 通过将剩余平方和(RSS)除以自由度(df)来计算最大模型的MSE(在R表中:0.77053 / 6

  2. 通过减去两个模型的RSS来计算MSE差异(结果是R表中的“Sum of Sq。”),减去两个模型的df(结果是R表中的“Df”),并且划分这些数字。

  3. 将2除以1并得到F值

  4. 使用3中的F值计算p值,并使用分子中df-差异和分母中最大模型的df计算p值。

  5. 据我所知,类OLSMultipleLinearRegression没有任何方便的方法来提取自由度的数量,因此在Java中这不是直截了当的。您必须手动计算df,然后使用类FDistribution计算p值。

    例如:

    OLSMultipleLinearRegression regr = new OLSMultipleLinearRegression();
    regr.newSampleData(y, x);
    double SSR1 = regr.calculateResidualSumOfSquares();
    double df1 = y.length - (x[0].length + 1); 
        //df = n - number of coefficients, including intercept
    
    regr.newSampleData(y, xb);
    double SSR2 = regr.calculateResidualSumOfSquares();
    double df2 = y.length - (xb[0].length + 1);
    
    double MSE = SSR2/df2; // EDIT: You need the biggest model here!
    double MSEdiff = Math.abs ((SSR2 - SSR1) / (df2 - df1));
    double dfdiff = Math.abs(df2 - df1);
    
    double Fval = MSEdiff / MSE;
    
    FDistribution Fdist = new FDistribution(dfdiff, df2);
    double pval = 1 - Fdist.cumulativeProbability(Fval);
    

    现在,F值和p值都应该与您在R. df1的anova()表中看到的完全相同,而df2是R表中的列Res.Df ,R表中的差异应为Df,而MSEdiff应与R表中的Sum of Sq.除以Df相同。

    免责声明:我是一个糟糕的JAVA程序员,因此上面的代码比实际代码更具概念性。请查找拼写错误或愚蠢的错误,并查看我在此处使用的FDistribution课程的文档:

    https://commons.apache.org/proper/commons-math/apidocs/org/apache/commons/math3/distribution/FDistribution.html#cumulativeProbability%28double%29

    现在你知道为什么统计学家使用R而不是Java; - )

    编辑:上面代码中使用的FDistribution是类

    org.apache.commons.math3.distribution.FDistribution
    

    在JSci中还有一个FDistribution:

    JSci.maths.statistics.FDistribution
    

    如果您使用那个,代码的最后部分将变为:

    FDistribution Fdist = new FDistribution(dfdiff, df2);
    double pval = 1 - Fdist.cumulative(Fval);
    

    根据具体实施情况,累积概率可能略有不同。我不知道差异和/或哪一个可以更好地信任。

答案 1 :(得分:1)

问题在于,您进行比较的方法并没有做同样的事情。

R中的 anova()实际执行Likelihood-Ratio test以通过添加新变量来检查您的第二个模型是否显着改善:more info in the answer here

另一方面,java中的oneWayAnovaPValue()只是运行一个t检验来检查组之间的均值差异是否显着。你在这种情况下做的是比较你的第一组系数的平均值是否与第二组显着不同,这是无关紧要的。

据我所知,java中没有现成的功能可以轻松执行似然比测试。但你可以很容易地创建一个。 在R中,您可以执行以下操作

anova(fit, fit2,test="Chisq")
#p: 0.788

#or manually:
df.diff = fit$df.residual - fit2$df.residual
vals <- (sum(residuals(fit)^2) - sum(residuals(fit2)^2))/sum(residuals(fit2)^2) * fit2$df.residual 
pchisq(vals, df.diff, lower.tail = FALSE)
#p: 0.7879634

所以你可以在java中采用相同的方法。在谷歌上进行的短搜索为我提供了java here中pchisq的实现(请注意,lower.tail = FALSE命令与1-pchisq(lower.tail = TRUE)相同,所以我们不要&#39;真的需要那个选项。)

这允许我们执行以下操作

public void regressionRun(){
OLSMultipleLinearRegression regr = new OLSMultipleLinearRegression();
OLSMultipleLinearRegression regr2 = new OLSMultipleLinearRegression();

double[] y = new double[] { -0.48812477, 0.33458213, -0.52754476,
        -0.79863471, -0.68544309, -0.12970239, 0.02355622, -0.31890850,
        0.34725819, 0.08108851 };
double[][] x = new double[10][];
double[][] x2 = new double[10][];
x[0] = new double[] { 1, 0 };
x[1] = new double[] { 0, 0 };
x[2] = new double[] { 1, 0 };
x[3] = new double[] { 2, 1 };
x[4] = new double[] { 0, 1 };
x[5] = new double[] { 0, 0 };
x[6] = new double[] { 1, 0 };
x[7] = new double[] { 0, 0 };
x[8] = new double[] { 1, 0 };
x[9] = new double[] { 0, 0 };
//
x2[0] = new double[] { 1, 0, 0 };
x2[1] = new double[] { 0, 0, 0 };
x2[2] = new double[] { 1, 0, 0 };
x2[3] = new double[] { 2, 1, 2 };
x2[4] = new double[] { 0, 1, 0 };
x2[5] = new double[] { 0, 0, 0 };
x2[6] = new double[] { 1, 0, 0 };
x2[7] = new double[] { 0, 0, 0 };
x2[8] = new double[] { 1, 0, 0 };
x2[9] = new double[] { 0, 0, 0 };

regr.newSampleData(y, x);
double[] b = regr.estimateResiduals();

regr2.newSampleData(y, x2);
double[] b2 = regr2.estimateResiduals();

//calculate sum of squares
double sumsq_b = 0;
double sumsq_b2 = 0;
for (double res : b){
    sumsq_b += res**2;
}
for (double res : b2){
    sumsq_b2 += res**2;
}
//calculate degrees of freedom
int df_b = y.length-(x[0].length+1);
int df_b2 = y.length-(x2[0].length+1);

double vals = (sumsq_b-sumsq_b2)/sumsq_b2*df_b2;

double pvalue = 1-pchisq(vals,df_b-df_b2);
System.out.println(pvalue);
}
//0.7879633810167291