当我在Spark中使用SGD执行Logistic回归时,为什么我的权重会被标准化?

时间:2017-06-07 21:14:11

标签: apache-spark machine-learning pyspark apache-spark-mllib logistic-regression

我最近问了一个关于我为我创建的合成数据集收到的权重的问题。我收到的答案是权重正常化。您可以查看详细信息here。我想知道为什么LogisticRegressionWithSGD给出标准化权重,而在同一个spark实现中LBFGS的情况下一切都很好。毕竟重量可能没有收敛吗?

我得到的权重

[0.466521045342,0.699614292387,0.932673108363,0.464446310304,0.231458578991,0.464372487994,0.700369689073,0.928407671516,0.467131704168,0.231629845549,0.46465456877,0.700207596219,0.935570594833,0.465697758292,0.230127949916]

重量我期待〜

[2,3,4,2,1,2,3,4,2,1,2,3,4,2,1]

0 个答案:

没有答案