WEKA的MultilayerPerceptron:训练然后再次训练

时间:2010-11-20 20:45:09

标签: machine-learning weka

我正在尝试使用weka的MultilayerPerceptron执行以下操作:

  1. 使用一小部分训练实例训练一部分时期输入,
  2. 使用整套实例训练剩余的时期。
  3. 然而,当我在我的代码中执行以下操作时,网络似乎会重置自己,以便第二次以干净的方式启动。

    mlp.setTrainingTime(smallTrainingSetEpochs);

    mlp.buildClassifier(smallTrainingSet);

    mlp.setTrainingTime(wholeTrainingSetEpochs);

    mlp.buildClassifier(wholeTrainingSet);

    我做错了什么,或者这是算法应该在weka中运行的方式?

    如果您需要更多信息来回答此问题,请告知我们。我对使用weka进行编程并不熟悉,并且不确定哪些信息会有所帮助。

1 个答案:

答案 0 :(得分:2)

weka邮件列表上的

This thread是一个与您非常相似的问题。

似乎这就是weka的MultilayerPerceptron应该如何工作的。它被设计成一个“批量”学习者,你试图逐步使用它。只有实施weka.classifiers.UpdateableClassifier的分类器才能进行增量训练。