RNN 时间序列输入形式
自用—时间序列数据、RNN、LSTM 中输入形式的记录_
LSTM 结构

GRU 结构

ConvLSTM

ConvLSTM 公式:
输入门:it=σ(Wxixt+Whiht−1+Wci∘ct−1+bi)
遗忘门:ft=σ(Wxfxt+Whfht−1+Wcf∘ct−1+bf)
内部记忆单元:ct=ft∘ct−1+it∘tanh(Wxcxt+Whcht−1+bc)
输出门:ot=σ(Wxoxt+Whoht−1+Wc∘ct+bo)
隐藏层ht=ot∘tanh(ct)
ConvGRU
GRU 摒弃了 LSTM 中的记忆单元,并将输入门和遗忘门结合成了更新门(update gate)
在不失精度的情况下,简化 ConvLSTM 的结构,加快训练的次数。
公式:
输入门:rt=σ(Wtxt+Utht−1)
更新门:zt=σ(Wzxt+Uzht−1)
隐藏层候选值:ht=tanh(Wxt+U(rt∘ht−1))
隐藏层:ht=(1−zt)∘ht−1+zt∘ht
z 为更新门,决定有多少迁移一层的状态要更新当前神经元中
h 为隐含层候选值,但输出的隐含层值是有更新门 z 计算出来的