Spark返回(LogisticRegression)模型,带有缩放系数

时间:2015-11-18 00:08:41

标签: scala apache-spark apache-spark-ml

我正在测试合成生成数据的LogisticRegression性能。我输入的权重是

   w = [2, 3, 4]

没有拦截和三个功能。在对1000综合生成的数据点进行训练后,假设每个数据点都是随机正态分布,我得到的Spark LogisticRegression模型的权重为

 [6.005520656096823,9.35980263762698,12.203400879214152]

我可以看到每个重量都按照接近' 3' w.r.t.原始价值观。我无法猜出这背后的原因。

代码很简单
/*
 * Logistic Regression model
 */
 val lr = new LogisticRegression()
  .setMaxIter(50)
  .setRegParam(0.001)
  .setElasticNetParam(0.95)
  .setFitIntercept(false)

 val lrModel = lr.fit(trainingData)


 println(s"${lrModel.weights}")

如果有人能够了解这里有什么可疑的话,我将不胜感激。

亲切的问候, NIKHIL

1 个答案:

答案 0 :(得分:0)

我想出了这个问题:我是完美分离的受害者,因为我的采样器工作不正常,结果数据完全确定。因此,Logistic回归分析了训练数据。