Tensorflow梯度WRT输入

时间:2019-01-31 16:17:31

标签: python tensorflow deep-learning

我正在尝试对抗训练中的最新想法,并且我对包括输入在内的损失函数特别感兴趣。这意味着我想导出关于输入的损失函数(不仅是模型参数)。

我可以看到的一个解决方案是函数tf.conv2d_backprop_input(...)。这可以用作转换层的解决方案,但是我也需要完全连接的层的解决方案。解决此问题的另一种方法是使用Ian Goodfellow和Nicolas Papernot编写的Cleverhans库。这可以是一个更“完整”的解决方案,但是其用法尚不清楚(我需要一个简单的示例,而不是一个完整的API)。

我很想听听您关于通过逆向训练创建自定义深度学习模拟的想法和方法。

1 个答案:

答案 0 :(得分:1)

输出节点对输入的依赖性可以通过反向传播计算,称为显着性。它可用于了解任何可区分的神经网络,输入的哪些部分对神经元输出的贡献最大。 This repository包含一组计算显着性的方法和论文链接。