计算Keras层神经元和互信息之间的系数的基本结构

时间:2019-07-20 01:55:57

标签: python keras deep-learning keras-layer

这里的目标是从一个内置的keras模型中,从收集的get_weights()信息中找到每个神经元之间的系数

我正在将系统构建为一个类,因此可以在不同的项目中轻松实现它,因此,作为测试模型,我使用了张量流主要学习页面上提供的“ mnist”示例。

如果我错了,请纠正我,但是我已经从下面的模型中收集了它:

model = tf.keras.models.Sequential([
  tf.keras.layers.Flatten(input_shape=(28, 28)),
  tf.keras.layers.Dense(512, activation=tf.nn.relu),
  tf.keras.layers.Dropout(0.2),
  tf.keras.layers.Dense(10, activation=tf.nn.softmax)
])

从“ model.get_weights()”检索的数组/矩阵集仅对应于模型的密集层。从下面链接的溢出柱聚集,每个密集层为进入该层的权重矩阵和每个神经元的偏置层做出贡献。 溢出帖子:Keras: Interpreting the output of get_weights()

在计算两个神经元之间的系数时,关于找到该系数所需的技术定义,我还没有发现太多细节。

在计算神经元之间的系数之间,我正在寻找帮助或方向,以寻找详细的方程式或解释以解决数值答案。

谢谢。 -M

0 个答案:

没有答案