我想模拟以下内容:
Y(T)= F(X(t-1),X(T-2),... X(叔k))的
或者说一个函数,它的当前输出取决于最后的k个输入。
1-我知道一种方法是将经典神经网络的k输入设为 {x(t-1),x(t-2),... x(tk)} 对于每个 y(t)并训练它。那么使用RNN解决这个问题的好处是什么?
2-假设使用RNN,我应该只使用x(t)(或x(t-1))并假设隐藏层可以找到y(t)与过去k输入的关系在其内存中(隐藏层)?
如果想要根据最后的k输入估算输出,那么使用Deep RNN或LSTM这样的深网对这样的问题有任何好处?答案 0 :(得分:3)