基于循环神经网络实现语言模型。
对于语言模型的介绍
https://blog.csdn.net/RokoBasilisk/article/details/104303197
我们的目的是基于当前的输入与过去的输入序列,预测序列的下一个字符。循环神经网络引入一个隐藏变量$H$,用$H_{t}$表示$H$在时间步$t$的值。$H_{t}$的计算基于$X_{t}$和$H_{t-1}$,可以认为$H_{t}$记录了到当前字符为止的序列信息,利用$H_{t}$对序列的下一个字符进行预测。
构造(Structure)
我们先看循环神经网络的具体构造。假设 $\boldsymbol{X}_t \in \mathbb{R}^{n \times d}$ 是时间步 $t$ 的小批量输入,$\boldsymbol{H}_t \in \mathbb{R}^{n \times h}$ 是该时间步的隐藏变量,则:
$$
\boldsymbol{H}_t = \phi(\boldsymbol{X}_t \boldsymbol{W}_{xh} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hh} + \boldsymbol{b}_h).
$$
其中,$\boldsymbol{W}_{xh} \in \mathbb{R}^{d \times h}$,$\boldsymbol{W}_{hh} \in \mathbb{R}^{h \times h}$, $\boldsymbol{b}_{h} \in \mathbb{R}^{1 \times h}$, $\phi$ 函数是非线性激活函数。
由于引入了 $\boldsymbol{H}_{t-1} \boldsymbol{W}_{hh}$,$H_{t}$ 能够捕捉截至当前时间步的序列的历史信息,就像是神经网络当前时间步的状态或记忆一样。
由于$H_{t}$的计算基于$H_{t-1}$,上式的计算是循环的,使用循环计算的网络即循环神经网络(recurrent neural network)。
在时间步$t$,输出层的输出为:
$$
\boldsymbol{O}_t = \boldsymbol{H}_t \boldsymbol{W}_{hq} + \boldsymbol{b}_q.
$$
其中$\boldsymbol{W}_{hq} \in \mathbb{R}^{h \times q}$,$\boldsymbol{b}_q \in \mathbb{R}^{1 \times q}$。
手动实现
实现一个基于字符级循环神经网络的语言模型,仍然使用周杰伦的歌词作为语料
下载地址:见语言模型一章【点击可直接下载】
1 | # import package and module |
one-hot向量
在此采用one-hot向量将字符表示成向量
假设词典大小是$N$,每次字符对应一个从$0$到$N-1$的唯一的索引,则该字符的向量是一个长度为$N$的向量,若字符的索引是$i$,则该向量的第$i$个位置为$1$,其他位置为$0$。下面分别展示了索引为0和2的one-hot向量,向量长度等于词典大小。
1 | def one_hot(x, n_class, dtype=torch.float32): |
每次采样的小批量的形状是(批量大小, 时间步数)。我们将其变换成数个形状为(批量大小, 词典大小)的矩阵,矩阵个数等于时间步数。也就是说,时间步$t$的输入为
$$
\boldsymbol{X}_t \in \mathbb{R}^{n \times d}
$$
其中$n$为批量大小,$d$为词向量大小,即one-hot向量长度(词典大小)
1 | def to_onehot(X, n_class): |
初始化模型参数
1 | # init module param |
定义模型
函数rnn
用循环的方式依次完成循环神经网络每个时间步的计算。
1 | def rnn(inputs, state, params): # 前向计算 |
函数init_rnn_state初始化隐藏变量,这里的返回值是一个元组。
1 | def init_rnn_state(batch_size, num_hiddens, device): |
裁剪梯度(clip gradient)
针对梯度爆炸问题
循环神经网络中较容易出现梯度衰减或梯度爆炸,这会导致网络几乎无法训练。假设我们把所有模型参数的梯度拼接成一个向量 $\boldsymbol{g}$,并设裁剪的阈值是$\theta$。裁剪后的梯度
$$
\min\left(\frac{\theta}{|\boldsymbol{g}|}, 1\right)\boldsymbol{g}
$$
的$L_2$范数不超过$\theta$。
反向传播方式:时间反向传播【DPTT】
1 | def grad_clipping(params, theta, device): # theta 预设的阈值 |
定义预测函数
基于前缀
prefix
(含有数个字符的字符串)来预测接下来的num_chars
个字符。
1 | def predict_rnn(prefix, num_chars, rnn, params, init_rnn_state, |
困惑度
我们通常使用困惑度(perplexity)来评价语言模型的好坏。困惑度是对交叉熵损失函数做指数运算后得到的值。特别地,
交叉熵损失函数
- 最佳情况下,模型总是把标签类别的概率预测为1,此时困惑度为1;
- 最坏情况下,模型总是把标签类别的概率预测为0,此时困惑度为正无穷;
- 基线情况下,模型总是预测所有类别的概率都相同,此时困惑度为类别个数。
显然,任何一个有效模型的困惑度必须小于类别个数。此处困惑度必须小于词典大小vocab_size
。
定义模型训练函数
跟之前章节的模型训练函数相比,这里的模型训练函数有以下几点不同:
- 使用困惑度评价模型。
- 在迭代模型参数前裁剪梯度。
- 对时序数据采用不同采样方法将导致隐藏状态初始化的不同。
相邻采样,开始的时候初始化隐藏状态,容易引起开销过大,通常将隐藏状态分离
1 | def train_and_predict_rnn(rnn, get_params, init_rnn_state, num_hiddens, |
训练模型并创作歌词
- 设置超参数
- 前缀:“分开”和“不分开”
- 歌词长度:50个字符(不考虑前缀长度)
- 周期:50
- 采样方式:随机采样 && 相邻采样
1 | # set super param |
简化实现
定义模型
使用 Pytorch 中的 nn.RNN 构造神经网络
1 | # 定义一个基于循环神经网络的语言模型 |
预测函数
1 | def predict_rnn_pytorch(prefix, num_chars, model, vocab_size, device, idx_to_char, |
训练
采用相邻采样
1 | # training function |