机器学习中模型训练是必需的,在模型训练中存在两类典型的问题:
欠拟合 (underfitting)
模型无法得到较低的训练误差
过拟合 (overfitting)
模型的训练误差远小于它在测试数据集上的误差
实际训练过程中可能会出现两类问题的并发症,而且会有多种因素直接或间接地导致这种情况出现
影响因素 介绍其中两个因素:模型复杂度和训练数据集大小。
模型复杂度 以多项式函数拟合为例。给定一个由标量数据特征$x$和对应的标量标签$y$组成的训练数据集,多项式函数拟合的目标是找一个$K$阶多项式函数
$$ \hat{y} = b + \sum_{k=1}^K x^k w_k $$
来近似 $y$。
在上式中,$w_k$是模型的权重参数,$b$是偏差参数。与线性回归相同,多项式函数拟合也使用平方损失函数。特别地,一阶多项式函数拟合又叫线性函数拟合。
给定训练数据集,模型复杂度和误差之间的关系:
训练数据集大小 一般来说,如果训练数据集中样本数过少 ,特别是比模型参数数量(按元素计)更少时,过拟合 更容易发生。
此外,泛化误差 不会随训练数据集里样本数量增加而增大。因此,在计算资源允许的范围之内,我们通常希望训练数据集大一些,特别是在模型复杂度较高时,例如层数较多的深度学习模型。
训练误差和泛化误差
通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。
计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。
机器学习模型应关注降低泛化误差。
多项式函数拟合实验 1 2 3 4 5 6 7 %matplotlib inline import torchimport numpy as npimport syssys.path.append("path to file storge d2lzh1981" ) import d2lzh1981 as d2l
初始化模型参数 1 2 3 4 5 6 n_train, n_test, true_w, true_b = 100 , 100 , [1.2 , -3.4 , 5.6 ], 5 features = torch.randn((n_train + n_test, 1 )) poly_features = torch.cat((features, torch.pow(features, 2 ), torch.pow(features, 3 )), 1 ) labels = (true_w[0 ] * poly_features[:, 0 ] + true_w[1 ] * poly_features[:, 1 ] + true_w[2 ] * poly_features[:, 2 ] + true_b) labels += torch.tensor(np.random.normal(0 , 0.01 , size=labels.size()), dtype=torch.float)
定义和训练参数模型 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 def semilogy (x_vals, y_vals, x_label, y_label, x2_vals=None, y2_vals=None, legend=None, figsize=(3.5 , 2.5 ) ) : d2l.plt.xlabel(x_label) d2l.plt.ylabel(y_label) d2l.plt.semilogy(x_vals, y_vals) if x2_vals and y2_vals: d2l.plt.semilogy(x2_vals, y2_vals, linestyle=':' ) d2l.plt.legend(legend) num_epochs, loss = 100 , torch.nn.MSELoss() def fit_and_plot (train_features, test_features, train_labels, test_labels) : net = torch.nn.Linear(train_features.shape[-1 ], 1 ) batch_size = min(10 , train_labels.shape[0 ]) dataset = torch.utils.data.TensorDataset(train_features, train_labels) train_iter = torch.utils.data.DataLoader(dataset, batch_size, shuffle=True ) optimizer = torch.optim.SGD(net.parameters(), lr=0.01 ) train_ls, test_ls = [], [] for _ in range(num_epochs): for X, y in train_iter: l = loss(net(X), y.view(-1 , 1 )) optimizer.zero_grad() l.backward() optimizer.step() train_labels = train_labels.view(-1 , 1 ) test_labels = test_labels.view(-1 , 1 ) train_ls.append(loss(net(train_features), train_labels).item()) test_ls.append(loss(net(test_features), test_labels).item()) print('final epoch: train loss' , train_ls[-1 ], 'test loss' , test_ls[-1 ]) semilogy(range(1 , num_epochs + 1 ), train_ls, 'epochs' , 'loss' , range(1 , num_epochs + 1 ), test_ls, ['train' , 'test' ]) print('weight:' , net.weight.data, '\nbias:' , net.bias.data)
对比三种拟合现象
正常
fit_and_plot(poly_features[:n_train, :], poly_features[n_train:, :], labels[:n_train], labels[n_train:])
欠拟合
fit_and_plot(features[:n_train, :], features[n_train:, :], labels[:n_train], labels[n_train:])
过拟合
fit_and_plot(poly_features[0:2, :], poly_features[n_train:, :], labels[0:2], labels[n_train:])
针对两类拟合问题的解决办法 权重衰减–过拟合 方法 权重衰减等价于 $L_2$ 范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。
L2 范数正则化(regularization) $L_2$范数正则化在模型原损失函数基础上添加$L_2$范数惩罚项,从而得到训练所需要最小化的函数。$L_2$范数惩罚项指的是模型权重参数每个元素的平方和与一个正的常数的乘积。以线性回归中的线性回归损失函数为例
$$ \ell(w_1, w_2, b) = \frac{1}{n} \sum_{i=1}^n \frac{1}{2}\left(x_1^{(i)} w_1 + x_2^{(i)} w_2 + b - y^{(i)}\right)^2 $$
其中$w_1, w_2$是权重参数,$b$是偏差参数,样本$i$的输入为$x_1^{(i)}, x_2^{(i)}$,标签为$y^{(i)}$,样本数为$n$。将权重参数用向量$\boldsymbol{w} = [w_1, w_2]$表示,带有$L_2$范数惩罚项的新损失函数为
$$ \ell(w_1, w_2, b) + \frac{\lambda}{2n} |\boldsymbol{w}|^2, $$
其中超参数$\lambda > 0$。当权重参数均为0时,惩罚项最小。当$\lambda$较大时,惩罚项在损失函数中的比重较大,这通常会使学到的权重参数的元素较接近0。当$\lambda$设为0时,惩罚项完全不起作用。上式中$L_2$范数平方$|\boldsymbol{w}|^2$展开后得到$w_1^2 + w_2^2$。
有了$L_2$范数惩罚项后,在小批量随机梯度下降中,我们将 Design and Realization of Linear Regression 中权重$w_1$和$w_2$的迭代方式更改为
$$ \begin{aligned} w_1 &\leftarrow \left(1- \frac{\eta\lambda}{|\mathcal{B}|} \right)w_1 - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}}x_1^{(i)} \left(x_1^{(i)} w_1 + x_2^{(i)} w_2 + b - y^{(i)}\right),\\ w_2 &\leftarrow \left(1- \frac{\eta\lambda}{|\mathcal{B}|} \right)w_2 - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}}x_2^{(i)} \left(x_1^{(i)} w_1 + x_2^{(i)} w_2 + b - y^{(i)}\right). \end{aligned} $$
可见,$L_2$范数正则化令权重$w_1$和$w_2$先自乘小于1的数,再减去不含惩罚项的梯度。
因此,$L_2$范数正则化又叫权重衰减
。权重衰减通过惩罚绝对值较大的模型参数为需要学习的模型增加了限制,这可能对过拟合有效
。
应用【剑指高维线性回归带来的过拟合】 设数据样本特征的维度为$p$。对于训练数据集和测试数据集中特征为$x_1, x_2, \ldots, x_p$的任一样本,使用如下的线性函数来生成该样本的标签:
$$ y = 0.05 + \sum_{i = 1}^p 0.01x_i + \epsilon $$
其中噪声项$\epsilon$服从均值为0、标准差为0.01的正态分布。为了较容易地观察过拟合,我们考虑高维线性回归问题,如设维度$p=200$;同时,我们特意把训练数据集的样本数设低,如20。
1 2 3 4 5 6 7 %matplotlib inline import torchimport torch.nn as nnimport numpy as npimport syssys.path.append("path to file storge d2lzh1981" ) import d2lzh1981 as d2l
初始化模型参数 1 2 3 4 5 6 7 8 9 10 11 12 13 n_train, n_test, num_inputs = 20 , 100 , 200 true_w, true_b = torch.ones(num_inputs, 1 ) * 0.01 , 0.05 features = torch.randn((n_train + n_test, num_inputs)) labels = torch.matmul(features, true_w) + true_b labels += torch.tensor(np.random.normal(0 , 0.01 , size=labels.size()), dtype=torch.float) train_features, test_features = features[:n_train, :], features[n_train:, :] train_labels, test_labels = labels[:n_train], labels[n_train:] def init_params () : w = torch.randn((num_inputs, 1 ), requires_grad=True ) b = torch.zeros(1 , requires_grad=True ) return [w, b]
定义L2范数惩罚项 1 2 def l2_penalty (w) : return (w**2 ).sum() / 2
训练和测试 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 batch_size, num_epochs, lr = 1 , 100 , 0.003 net, loss = d2l.linreg, d2l.squared_loss dataset = torch.utils.data.TensorDataset(train_features, train_labels) train_iter = torch.utils.data.DataLoader(dataset, batch_size, shuffle=True ) def fit_and_plot (lambd) : w, b = init_params() train_ls, test_ls = [], [] for _ in range(num_epochs): for X, y in train_iter: l = loss(net(X, w, b), y) + lambd * l2_penalty(w) l = l.sum() if w.grad is not None : w.grad.data.zero_() b.grad.data.zero_() l.backward() d2l.sgd([w, b], lr, batch_size) train_ls.append(loss(net(train_features, w, b), train_labels).mean().item()) test_ls.append(loss(net(test_features, w, b), test_labels).mean().item()) d2l.semilogy(range(1 , num_epochs + 1 ), train_ls, 'epochs' , 'loss' , range(1 , num_epochs + 1 ), test_ls, ['train' , 'test' ]) print('L2 norm of w:' , w.norm().item())
对比过拟合与权重衰减处理
过拟合
fit_and_plot(lambd=0)
权重衰减处理
fit_and_plot(lambd=3)
权重衰减的简化 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 def fit_and_plot_pytorch (wd) : net = nn.Linear(num_inputs, 1 ) nn.init.normal_(net.weight, mean=0 , std=1 ) nn.init.normal_(net.bias, mean=0 , std=1 ) optimizer_w = torch.optim.SGD(params=[net.weight], lr=lr, weight_decay=wd) optimizer_b = torch.optim.SGD(params=[net.bias], lr=lr) train_ls, test_ls = [], [] for _ in range(num_epochs): for X, y in train_iter: l = loss(net(X), y).mean() optimizer_w.zero_grad() optimizer_b.zero_grad() l.backward() optimizer_w.step() optimizer_b.step() train_ls.append(loss(net(train_features), train_labels).mean().item()) test_ls.append(loss(net(test_features), test_labels).mean().item()) d2l.semilogy(range(1 , num_epochs + 1 ), train_ls, 'epochs' , 'loss' , range(1 , num_epochs + 1 ), test_ls, ['train' , 'test' ]) print('L2 norm of w:' , net.weight.data.norm().item())
训练结果与手动实现基本一致
丢弃法–过拟合
只能用于模型训练
Multilayer Perceptron & Classify image 中神经网络图描述了一个单隐藏层的多层感知机。其中输入个数为4,隐藏单元个数为5,且隐藏单元$h_i$($i=1, \ldots, 5$)的计算表达式为
$$ h_i = \phi\left(x_1 w_{1i} + x_2 w_{2i} + x_3 w_{3i} + x_4 w_{4i} + b_i\right) $$
这里$\phi$是激活函数,$x_1, \ldots, x_4$是输入,隐藏单元$i$的权重参数为$w_{1i}, \ldots, w_{4i}$,偏差参数为$b_i$。
当对该隐藏层使用丢弃法时,该层的隐藏单元将有一定概率被丢弃掉。设丢弃概率为$p$,那么有$p$的概率$h_i$会被清零,有$1-p$的概率$h_i$会除以$1-p$做拉伸。
丢弃概率是丢弃法的超参数。具体来说,设随机变量$\xi_i$为0和1的概率分别为$p$和$1-p$。使用丢弃法时我们计算新的隐藏单元$h_i’$
$$ h_i’ = \frac{\xi_i}{1-p} h_i $$
由于$E(\xi_i) = 1-p$,因此
$$ E(h_i’) = \frac{E(\xi_i)}{1-p}h_i = h_i $$
即丢弃法不改变其输入的期望值。
对之前多层感知机的神经网络中的隐藏层使用丢弃法,一种可能的结果如图所示,其中$h_2$和$h_5$被清零。这时输出值的计算不再依赖$h_2$和$h_5$,在反向传播时,与这两个隐藏单元相关的权重的梯度均为0。由于在训练中隐藏层神经元的丢弃是随机的,即$h_1, \ldots, h_5$都有可能被清零,输出层的计算无法过度依赖$h_1, \ldots, h_5$中的任一个。
1 2 3 4 5 6 7 %matplotlib inline import torchimport torch.nn as nnimport numpy as npimport syssys.path.append("path to file storge d2lzh1981" ) import d2lzh1981 as d2l
丢弃函数 1 2 3 4 5 6 7 8 9 10 11 12 13 14 ‘’‘ :param:drop_prob:丢失率 :param:keep_prob:保存率 ’‘’ def dropout (X, drop_prob) : X = X.float() assert 0 <= drop_prob <= 1 keep_prob = 1 - drop_prob if keep_prob == 0 : return torch.zeros_like(X) mask = (torch.rand(X.shape) < keep_prob).float() return mask * X / keep_prob
初始化参数 1 2 3 4 5 6 7 8 9 10 11 num_inputs, num_outputs, num_hiddens1, num_hiddens2 = 784 , 10 , 256 , 256 W1 = torch.tensor(np.random.normal(0 , 0.01 , size=(num_inputs, num_hiddens1)), dtype=torch.float, requires_grad=True ) b1 = torch.zeros(num_hiddens1, requires_grad=True ) W2 = torch.tensor(np.random.normal(0 , 0.01 , size=(num_hiddens1, num_hiddens2)), dtype=torch.float, requires_grad=True ) b2 = torch.zeros(num_hiddens2, requires_grad=True ) W3 = torch.tensor(np.random.normal(0 , 0.01 , size=(num_hiddens2, num_outputs)), dtype=torch.float, requires_grad=True ) b3 = torch.zeros(num_outputs, requires_grad=True ) params = [W1, b1, W2, b2, W3, b3]
添加丢弃层 1 2 3 4 5 6 7 8 9 10 11 drop_prob1, drop_prob2 = 0.2 , 0.5 def net (X, is_training=True) : X = X.view(-1 , num_inputs) H1 = (torch.matmul(X, W1) + b1).relu() if is_training: H1 = dropout(H1, drop_prob1) H2 = (torch.matmul(H1, W2) + b2).relu() if is_training: H2 = dropout(H2, drop_prob2) return torch.matmul(H2, W3) + b3
模型评估 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 def evaluate_accuracy (data_iter, net) : acc_sum, n = 0.0 , 0 for X, y in data_iter: if isinstance(net, torch.nn.Module): net.eval() acc_sum += (net(X).argmax(dim=1 ) == y).float().sum().item() net.train() else : if ('is_training' in net.__code__.co_varnames): acc_sum += (net(X, is_training=False ).argmax(dim=1 ) == y).float().sum().item() else : acc_sum += (net(X).argmax(dim=1 ) == y).float().sum().item() n += y.shape[0 ] return acc_sum / n
模型训练 1 2 3 4 5 6 7 8 9 10 11 12 13 num_epochs, lr, batch_size = 5 , 100.0 , 256 loss = torch.nn.CrossEntropyLoss() train_iter, test_iter = d2l.load_data_fashion_mnist( batch_size, root='path to FashionMNIST2065' ) d2l.train_ch3( net, train_iter, test_iter, loss, num_epochs, batch_size, params, lr)
丢弃法的简化 1 2 3 4 5 6 7 8 9 10 11 12 13 net = nn.Sequential( d2l.FlattenLayer(), nn.Linear(num_inputs, num_hiddens1), nn.ReLU(), nn.Dropout(drop_prob1), nn.Linear(num_hiddens1, num_hiddens2), nn.ReLU(), nn.Dropout(drop_prob2), nn.Linear(num_hiddens2, 10 ) ) for param in net.parameters(): nn.init.normal_(param, mean=0 , std=0.01 )
综上
对于训练误差较低但是泛化误差依然较高,二者相差较大的过拟合
对于模型无法达到一个较低的误差的欠拟合
增加新特征,可以考虑加入进特征组合、高次特征,来增大假设空间
添加多项式特征,这个在机器学习算法里面用的很普遍,例如将线性模型通过添加二次项或者三次项使模型泛化能力更强
减少正则化参数,正则化的目的是用来防止过拟合的,但是模型出现了欠拟合,则需要减少正则化参数
使用非线性模型,比如核SVM 、决策树、深度学习等模型
调整模型的容量(capacity),通俗地,模型的容量是指其拟合各种函数的能力
容量低的模型可能很难拟合训练集;使用集成学习方法,如Bagging ,将多个弱学习器Bagging
Author:
Rokosnake
License:
Copyright (c) 2019 CC-BY-NC-4.0 LICENSE
Slogan:
How to thought, there is what kind of life.