标签: python lstm recurrent-neural-network
我正在研究LSTM网络的不同结构。我无法完全理解Vanilla和Stacked LSTM之间的区别。据我从一些文章中了解到,香草LSTM中没有隐藏层。因此,这意味着我们只有输入和输出层。在Stacked LSTM中,它可以至少是一个隐藏层,我们可以增加隐藏层的大小。这些假设是正确的吗?我有正确的认识吗?预先感谢