如何使用层的权重和偏差从Keras模型获得输出?

时间:2019-10-03 01:51:41

标签: python tensorflow keras

我的模型是尝试在y = 2x + 5之后进行线性回归预测值。因此,我的训练数据类似于以下内容:

x_train = [0, 1, 2, 3, 4, ...] and y_train = [5, 7, 9, 11, 13, ...]   

我的Keras模型如下:

`model = tf.keras.Sequential([
    tf.keras.layers.Dense(16, activation='relu', input_dim=1),
    tf.keras.layers.Dense(1, activation='linear')
])
model.compile(loss='mean_squared_error', optimizer='adam', metrics=['mse'])
model.fit(x_train, y_train, epochs=1000, batch_size=10)`

在获得良好的验证准确性之后,我希望查看模型的权重和偏差以计算给定输入的输出,因为我希望了解简单的神经网络如何工作。我在跑步时达到以下权重和偏见

for l in model.layers: print(l.get_weights())

[array([[-0.10382611,  0.48899287, -0.36912352, -0.11604425,  0.03658517,
     0.546786  , -0.0094437 ,  0.5393126 , -0.36325318, -0.20389882,
    -0.00112574, -0.39811927, -0.25433052, -0.16315842,  0.6172162 ,
    -0.47300738]], dtype=float32), array([ 0.        ,  1.1705374 ,  
     0.        ,  0.        , -0.41323203, 0.97515434, 0.        , 
     0.99699414,  0.        ,  0.        ,-0.2316811 , 0.        ,
     0.        ,  0.        ,  1.4638424 , 0.       ], dtype=float32)]
[array([[-0.30404267],
   [ 0.91265625],
   [ 0.3578334 ],
   [-0.23462006],
   [-0.33843294],
   [ 1.080244  ],
   [-0.5933689 ],
   [ 1.0348322 ],
   [ 0.47716653],
   [ 0.18852347],
   [-0.21219982],
   [ 0.45529807],
   [ 0.39576346],
   [-0.05013525],
   [ 0.67550814],
   [-0.19761673]], dtype=float32), array([0.7426254], dtype=float32)]

我的印象是,如果我要输入10的值,我应该期望输出值为25(或非常接近)。但是,当我自己尝试进行数学运算时,我并不是那么亲密。我目前对此的理解是:

  1. 权重数组的第n个元素乘以10,然后加上偏差数组的第n个元素
  2. 取第n个结果,乘以第二个权重数组的第n个元素,然后加上第二个偏置数组的第n个元素
  3. 结果应为25(或非常接近)

我不知道这应该如何工作吗?

1 个答案:

答案 0 :(得分:0)

如果我们观察每层的权重和偏差阵列,我们会发现错误的结果是由于缺乏训练。模型无法使用这些参数学习模式,但是可以说,随着权重和偏见的增加,它正在改善,这是必需的,因为我们已经在模式背后有了逻辑。如果训练数据较小,建议您增加迭代次数并更改批次大小。