我有一个标准的神经网络,我已经训练了一段时间,但是直到完美为止。培训课程结束后,我将网络保存在磁盘上。
一段时间后,我想从离开的地方继续训练网络。问题是,似乎每次我开始新的培训课程时,权重和偏见似乎都已完全重置,这意味着我正在从头开始重新训练网络:
上一届会议:
新会话:
这是我训练功能的摘录:
void trainNet(fann *net) {
const unsigned int
max_epochs = 1000,
epochs_between_reports = 10;
const float desired_error = 0.01f;
net -> learning_momentum = 0.1f;
fann_train_on_file(net, "sessions.data", max_epochs, epochs_between_reports, desired_error);
fann_save(net, "network.net");
fann_destroy(net);
}
我想念什么?对我来说似乎很直观,您可以跨多个会话训练网络。我错了吗?是图书馆的限制吗?
两次会议之间的训练数据保持不变。这也不限于这个特定的网络,任何格式的网络似乎都会引发相同的问题。
答案 0 :(得分:1)
我想念什么?
根据Documentation - FANN Training > Training Data Manipulation > fann_set_training_algorithm
:
示例:
fann_set_training_algorithm(net, FANN_TRAIN_INCREMENTAL)