我想建模以下内容:
y(t)=F(x(t-1),x(t-2),...x(tk))
或者让我们说一个函数,它的当前输出取决于最后 k 个输入。
1-我知道一种方法是拥有一个经典的神经网络,其中每个y(t)的 k 个输入为{x(t-1),x(t-2),...x(tk)}并对其进行训练。那么使用 RNN 解决这个问题有什么好处呢?
2-假设使用 RNN,我应该只使用 x(t)(或 x(t-1))并假设隐藏层可以通过 in 找到 y(t) 与过去 k 个输入的关系它的记忆(隐藏层)?
3-考虑到我们想根据最后 k 个输入来估计输出,使用像 Deep RNN 或 LSTM 这样的深度网络对此类问题有什么优越的好处?