在Keras中串联训练多个模型以进行超参数优化

时间:2019-10-01 16:03:06

标签: python keras neural-network tf.keras

这个想法是使用相同的训练数据集训练多个模型,每次更改一些参数以查看哪个参数效果最好。为此,我需要每次都从头开始训练每个模型。

我当前的代码(简体)是:

scores= []

for i in range(n):
    model = Sequential()
    model.add(...)
    model.compile(...)
    model.fit(...)
    scores.append([i, model.score(...)])

for score in scores:
    print(score)

它按预期的打印方式运行:

[0, 0.89712456798]
[1, 0.76652347349]
[2, 0.83178943210]
...

但是我不介意代码是否执行了上述操作,或者是否相反地训练了依赖于前一个模型的模型。

2 个答案:

答案 0 :(得分:0)

每次致电

model = Sequential()

您的模型已重新初始化,因此上面的代码草图确实可以实现您想要的功能,即为每个循环迭代从头开始拟合新模型。

答案 1 :(得分:0)

您的代码很好。每次创建一个新模型。

但是我建议在prallel中训练多种模型。我刚刚发现了RayLib,它非常适合此任务。

https://ray.readthedocs.io/en/latest/auto_examples/plot_hyperparameter.html

您的代码具有4个并行的培训课程,每个课程有5次迭代:

import ray

@ray.remote
def train(sequence):
    scores= []
    for i in range(sequence)
        model = Sequential()
        model.add(...)
        model.compile(...)
        model.fit(...)
        scores.append([i, model.score(...)])
    return scores

n=4
results = []
for i in range(n):
    results.append(train.remote(5))

results_data = ray.get(results)

for i in results_data:
    print(i)

您可以将超参数作为训练函数的输入,并快速测试不同的体系结构。 RayLib需要Ubuntu tho。