这个想法是使用相同的训练数据集训练多个模型,每次更改一些参数以查看哪个参数效果最好。为此,我需要每次都从头开始训练每个模型。
我当前的代码(简体)是:
scores= []
for i in range(n):
model = Sequential()
model.add(...)
model.compile(...)
model.fit(...)
scores.append([i, model.score(...)])
for score in scores:
print(score)
它按预期的打印方式运行:
[0, 0.89712456798]
[1, 0.76652347349]
[2, 0.83178943210]
...
但是我不介意代码是否执行了上述操作,或者是否相反地训练了依赖于前一个模型的模型。
答案 0 :(得分:0)
每次致电
model = Sequential()
您的模型已重新初始化,因此上面的代码草图确实可以实现您想要的功能,即为每个循环迭代从头开始拟合新模型。
答案 1 :(得分:0)
您的代码很好。每次创建一个新模型。
但是我建议在prallel中训练多种模型。我刚刚发现了RayLib,它非常适合此任务。
https://ray.readthedocs.io/en/latest/auto_examples/plot_hyperparameter.html
您的代码具有4个并行的培训课程,每个课程有5次迭代:
import ray
@ray.remote
def train(sequence):
scores= []
for i in range(sequence)
model = Sequential()
model.add(...)
model.compile(...)
model.fit(...)
scores.append([i, model.score(...)])
return scores
n=4
results = []
for i in range(n):
results.append(train.remote(5))
results_data = ray.get(results)
for i in results_data:
print(i)
您可以将超参数作为训练函数的输入,并快速测试不同的体系结构。 RayLib需要Ubuntu tho。