如何在spark中获得机器学习的分区结果

时间:2016-07-30 15:42:15

标签: apache-spark apache-spark-mllib

我知道当我执行LogisticRegression.fit()时,此操作会在spark MLlib中自动拆分数据。

我的第一个问题: 例如:我想将数据拆分为10组。然后,他们运行并行学习算法。然后,我可以得到十个假设,这可以做另一个算法来找到最终更好的假设。

我的想法是我随机分割10组数据。然后我在每个折叠中运行LogisticRegression.fit()(for-loop?)。因此,我可以得到每个折叠的结果。但是,由于花费更多时间,我认为这可能不是一个好方法。

当我想获得每个分区的结果时,有什么更好的方法?

另一个问题是: 在LogisticRegressionModel类中,我可以说" val权重是模型的假设。" ?

0 个答案:

没有答案