RNN

在DNN中,当前输出层的值只和当前输入值有关系。如果当前输出值不仅依赖当前输入值,也依赖于前面时刻的输入值,那么DNN就不适用了。因此也就有了RNN。

一、RNN结构

RNN

这是最简单的RNN。其中Xt是t时刻的输入,S是隐藏层。Ot是t时刻的输出。隐藏层St是由前t-1个时刻的隐藏层叠加而成的。把St也可以理解为前t时刻x的记忆叠加而成的隐藏层。

二、RNN的前向传播

1、记

RNN

其中σs为激活函数。W是隐藏层S上的权重,如上式所示,作用跟输入一起来迭代S。

2、

RNN

其中σt为激活函数

ot为t时刻的输出也是叠加了了t-1之前时刻输入的输出

U为输入层的权重

V为隐藏层到输出层的权重

三、 RNN的反向传播(BPTT,back-propagation through time)

为了学习,假设σs为tanh函数,σt为softmax函数。

求参的过程还是和大多数学过的模型求参一样,列出损失函数,例如MSE,交叉熵等,然后用最大似然估计求参数形式,再用SGD随机梯度下降求解。

这里面需要求U、W、V。

1、

RNN

2、

RNN

3、损失函数,在图中,在unfold里面,由于每一点都有一个o,因此每一点都有一个损失。因此总的损失就是每一点损失之和。

RNN

4、记

RNN

oh为模型输出值,没有上标h的o为真实值。

5、对V求导

RNN

6、对W求导。

(1)

RNN

(2)

RNN

(3)由于

RNN

(4)为了解下计算过程,简单起见,设i=2

RNN

以次类推。

7、对U求导

(1)

RNN

(2)

RNN

8、有了每个参数的梯度,然后利用SGD可以更新参数了。

上一篇:查看表空间信息SQL集合


下一篇:Tests of the Equality of Two Means