我正在查看示例:https://github.com/fchollet/keras/blob/master/examples/conv_lstm.py
此RNN实际上是预测电影的下一帧,因此输出也应该是电影(根据输入的测试数据)。我想知道由于带有填充的转换层而导致信息丢失。 例如,如果有一个大填充,则底层Tensorflow在右下方填充:(n代表数字)
n n n 0 0 0 0
n n n 0 0 0 0
n n n 0 0 0 0
n n n 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
当我们进行第二次转换时,右下角将始终为0,这意味着反向传播将永远无法捕获任何内容。在这种情况下,电影(一个正方形在整个屏幕上移动),当验证标签位于右下角时,它是否会丢失信息?
答案 0 :(得分:3)
在获得博士学位后答案是肯定的。进行人工智能研究。