我正在测试合成生成数据的LogisticRegression
性能。我输入的权重是
w = [2, 3, 4]
没有拦截和三个功能。在对1000
综合生成的数据点进行训练后,假设每个数据点都是随机正态分布,我得到的Spark LogisticRegression
模型的权重为
[6.005520656096823,9.35980263762698,12.203400879214152]
我可以看到每个重量都按照接近' 3' w.r.t.原始价值观。我无法猜出这背后的原因。
代码很简单/*
* Logistic Regression model
*/
val lr = new LogisticRegression()
.setMaxIter(50)
.setRegParam(0.001)
.setElasticNetParam(0.95)
.setFitIntercept(false)
val lrModel = lr.fit(trainingData)
println(s"${lrModel.weights}")
如果有人能够了解这里有什么可疑的话,我将不胜感激。
亲切的问候, NIKHIL
答案 0 :(得分:0)
我想出了这个问题:我是完美分离的受害者,因为我的采样器工作不正常,结果数据完全确定。因此,Logistic回归分析了训练数据。