无法理解Keras ConvLSTM2D - 已编辑

时间:2017-06-28 01:55:05

标签: machine-learning tensorflow deep-learning keras lstm

我正在查看示例:https://github.com/fchollet/keras/blob/master/examples/conv_lstm.py

此RNN实际上是预测电影的下一帧,因此输出也应该是电影(根据输入的测试数据)。我想知道由于带有填充的转换层而导致信息丢失。 例如,如果有一个大填充,则底层Tensorflow在右下方填充:(n代表数字)

n n n 0 0 0 0
n n n 0 0 0 0
n n n 0 0 0 0
n n n 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0

当我们进行第二次转换时,右下角将始终为0,这意味着反向传播将永远无法捕获任何内容。在这种情况下,电影(一个正方形在整个屏幕上移动),当验证标签位于右下角时,它是否会丢失信息?

1 个答案:

答案 0 :(得分:3)

在获得博士学位后答案是肯定的。进行人工智能研究。