如何将输入提供给Keras中的隐藏层?

时间:2019-03-21 22:00:48

标签: python tensorflow keras neural-network

我在Keras进行了多阶段的培训,在这里我首先训练一个结构如下的模型:

inpu=Input(shape=(600,))
additive_layer=Dense(1,use_bias=False,activation="linear")(inpu)

lin_model_func=Model(inputs=inpu,output=additive_layer)

我在一些数据上训练了该模型,然后构造了以下第二个模型:

non_linear_layer1=Dense(25,activation="relu")(additive_layer)
non_linear_layer2=Dense(25,activation="relu")(non_linear_layer1)

linear_layer=Dense(1,activation="linear")(non_linear_layer2)

non_lin_model=Model(inputs=inpu,outputs=linear_layer)

并训练更多数据。

我想做的是弄清楚如何将值馈送到non_linear_layer1中,就像它们是加法层的输入一样,也就是说,我想找到加法层上单节点输出之间的关系。 ,以及网络的最终输入。我不清楚在Keras中该如何完成。即我想要一个新的网络,该网络具有上面模型中的经过训练的权重(因此不再进行训练),它期望一个1维输入并输出另一个1维输出。

0 个答案:

没有答案