You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

22 KiB

13深度学习3招提升神经网络预测准确率

你好,我是黄佳。欢迎来到零基础实战机器学习。

在前面两讲中我们创建了CNN和RNN两个常用的深度神经网络模型。今天我们来专门谈一谈神经网络的优化让前两讲中所创建的网络模型拥有更好的性能。

关于性能优化,我们不是第一次讲了,在第8讲第10讲中,我们对应普通的机器学习模型,讲了三个阶段的性能调优:

  • 在数据处理阶段,我们介绍了特征工程对于模型性能的重要性;
  • 在模型训练阶段,我们介绍了过拟合的危害以及如何避免过拟合;
  • 在测试评估阶段,我们介绍了交叉验证以及参数调优的方法。

其实,深度学习的性能优化和其它普通的机器学习模型类似,我们也可以从数据处理、网络模型本身,以及如何对神经网络进行参数调优这三个主要方面去考虑。

数据方面的考量:图像数据增广

我们已经知道,要提高模型的性能,数据方面的考量就是提升数据的“质”和“量”。那么,提升“质”,就是做好特征工程。不过你知道,神经网络对特征工程的要求是比较低的,因为神经网络本身就可以完成特征提取。

那怎么增加数据的“量”呢?我们都清楚,有标签的数据搜集起来真是太困难了,尤其是带标签的图片数据。那有没有什么方法能够在只有这么多图片的情况下,来提升我们第11讲中那个鲜花图片分类网络的性能呢?

还真有。在机器学习领域,有一个专门解决这类问题的“大杀器”,叫数据增广(data augmentation),也叫数据增强,它能通过已有的图片,增加数据量,从而提高卷积网络图像处理问题的性能,增强模型的泛化能力。

对原始的图像进行数据增广的方式有很多比如水平翻转还有一定程度的位移、颠倒、倾斜、裁剪、颜色抖动color jittering、平移、虚化或者增加噪声等这些都比较常用。此外我们还可以尝试多种操作的组合 比如同时做旋转和随机尺度变换还可以提升所有像素在HSV颜色空间中的饱和度和明度以及在色调通道对每张图片的所有像素增加一个-0.1~0.1之间的值等。

像这样一张图片,我们通过上述“变换”,可以当成七、八张,甚至十张、百张来用。

这样一来,无论是图片的数目,还是多样性,模型在训练时都能够观察到数据的更多内容,从而拥有更好的准确率和泛化能力。

在Keras中我们可以用Image Data Generator工具来定义一个数据增广器完整代码参见这里

# 定义一个数据增强器,并设定各种增强选项
from tensorflow.keras.preprocessing.image import ImageDataGenerator #数据增强器
augs_gen = ImageDataGenerator( #各种增强参数具体说明可参见Keras文档
           featurewise_center=False,
           samplewise_center=False,         
           featurewise_std_normalization=False,          
           samplewise_std_normalization=False,  
           zca_whitening=False, 
           rotation_range=10,  
           zoom_range = 0.1, 
           width_shift_range=0.2,  
           height_shift_range=0.2,
           horizontal_flip=True,  
           vertical_flip=False) 
augs_gen.fit(X_train) # 针对训练集拟合数据增强器

现在,我们就用这个数据增广器对第11讲中创建的卷积神经网络模型CNN进行优化看看数据增广能给这个模型带来什么变化。CNN网络模型的结构和编译参数都和原来的模型一样唯一的区别是在训练时需要通过augs_gen.flow动态生成被增强后的训练集。

history = cnn.fit( # 拟合   
    augs_gen.flow(X_train,y_train,batch_size=16), # 增强后的训练集
    epochs = 30,  # 指定轮次
    verbose = 1) # 指定是否显示训练过程中的信息
# show_history(history) # 调用这个函数

由于数据增广需要时间,这次模型训练相比第11讲中没有数据增广的训练,速度慢了很多。训练过程结束之后,我们对比一下数据增广前后的分类准确率。

增广之前:

result = cnn.evaluate(X_test, y_test) #评估测试集上的准确率
print('数据增强之前CNN的测试准确率为',"{0:.2f}%".format(result[1]*100))

输出如下:

21/21 [==============================] - 0s 7ms/step - loss: 4.4355 - acc: 0.6003
数据增强之前CNN的测试准确率为 60.03%

增广之后:

result = cnn.evaluate(X_test, y_test) #评估测试集上的准确率
print('数据增强之后CNN的测试准确率为',"{0:.2f}%".format(result[1]*100))

输出如下:

21/21 [==============================] - 0s 8ms/step - loss: 0.6121 - acc: 0.7856
数据增强之后CNN的测试准确率为 78.56%

可以看到数据增广之后的测试结果更令人满意测试误差大幅减小准确率也从60%上升至78%以上。对于这个花朵的分类问题来说,这已经是相当不错的成绩了。

那么,数据方面的考量我们就介绍到这里,下一步,我们来看看神经网络在模型训练阶段要注意哪些问题。

训练时的考量:防止网络过拟合

第9讲的模型调优部分,我们反复强调过模型过拟合的危害,过拟合的模型会严重降低模型在其它数据集上的泛化能力。那么,神经网络会不会也出现类似的问题呢?我们仔细观察一下我在训练上一讲中的神经网络模型时得到的这张损失曲线图片:

不知道你有没有发现神经网络在训练数据集上的损失在一直变小直到趋近于0达到非常高的拟合准确度。然而验证集上的损失并不是在稳定地减小一开始是跟着训练集的损失的减小而逐渐变小到后来又呈现出爬升以及大小弹跳的状态。这就意味着过拟合已经出现了这个过程就像下面这张图显示一样

我们知道,神经网络算是一种复杂的模型,它的深度架构层次深、神经元的数量很多,参数也很多,所以神经网络才能够模拟出现实世界中各种各样的关系。

你可能会问我这样一个问题:佳哥,你说模型过于复杂,就会在训练数据集上发生过拟合,可你又说,如果神经网络模型不复杂,就解决不了复杂的问题,这不是自相矛盾了吗?

这的确是神经网络模型所面临的一个两难问题。对于小数据而言,深度神经网络由于参数数量太多,容易出现过拟合的风险。而对于神经网络这么复杂的模型来说,要避免过拟合还挺难做到的。

不过深度学习三巨头之一的杰弗里·欣顿Geoffrey Hinton和他的学生发现了一种解决方式他们把一种叫做 Dropout 的层添加到了神经网络中将该层的一部分神经元的输出特征随机丢掉设为0相当于随机消灭一部分神经元

那么,为什么杀死一部分神经元就能达到避免过拟合的效果呢?其实,这就是神经网络中最常用的正则化机制,你还记得正则化的原理吧,它的目的是为了让模型粗糙一点儿,不要过分追求完美。

Hinton的这个灵感来自银行的防欺诈机制。他去银行办理业务时发现柜员不停地换人。他就猜想银行工作人员要想成功欺诈银行他们之间要互相合作才行因此一个柜员不能在同一个岗位待得过久。这让他意识到在某些神经网络层中的各个神经元之间的参数可能也是针对训练数据集形成了某种“固定套路”那么随机删除一部分神经元就有可能打破这些套路阻止它们的“阴谋”从而降低过拟合。

对于大型的深层神经网络来说添加Dropout层已经是一个标准配置了。下面我们就给上一讲中的RNN模型增加Drop层。完整代码请见这里

from tensorflow.keras.models import Sequential #导入序贯模型
from tensorflow.keras.layers import Dense, LSTM, Dropout #导入全连接层,LSTM层和Dropout层
from tensorflow.keras.optimizers import Adam
# LSTM网络架构
RNN_LSTM = Sequential() #序贯模型
RNN_LSTM.add(LSTM(units=50, return_sequences=True, input_shape=(X_train.shape[1],1))) #输入层LSTM,return_sequences返回输出序列
RNN_LSTM.add(Dropout(0.2)) #Dropout层减少过拟合
RNN_LSTM.add(LSTM(units=50, return_sequences=True)) #中间层LSTMreturn_sequences返回输出序列
RNN_LSTM.add(Dropout(0.2)) #Dropout层减少过拟合
RNN_LSTM.add(LSTM(units=50, return_sequences=True)) #中间层LSTMreturn_sequences返回输出序列
RNN_LSTM.add(Dropout(0.2)) #Dropout层减少过拟合
RNN_LSTM.add(LSTM(units=50)) #中间层LSTM
RNN_LSTM.add(Dropout(0.2)) #Dropout层减少过拟合
RNN_LSTM.add(Dense(units=1)) #输出层Dense
# 编译网络
RNN_LSTM.compile(loss='mse', #损失函数
             optimizer='rmsprop', #优化器
             metrics=['mae']) #评估指标
RNN_LSTM.summary() #输出神经网络结构信息

输出如下:

此处Dropout(0.2)层中的0.2也就是在Dropout层中会被随机丢弃掉的神经元的比例通常设为0.2 0.5。注意Dropout 只是对训练集起作用,在测试时没有神经元被丢掉。

接着我们来看一下添加了Dropout层之后RNN网络训练过程的损失曲线

添加了Dropout层之后损失曲线显得更平滑了尽管仍然有震荡的现象但是震荡的幅度呈现逐渐减小的趋势而且验证集损失也随着轮次的增多而减小。

对测试集预测后显示预测曲线如下:

曲线中真值和预测值的走势非常接近。

我们可以计算一下调优前后的均方误差,并进行比较:

print("调优前MSE损失值 {}.".format(mean_squared_error(y_test, y_pred)))
print("添加Dropout层之后的MSE损失值 {}.".format(mean_squared_error(test, y_pred_dropout)))

此时显示模型的均方误差为:

调优前MSE损失值 0.06139160691187054.
添加Dropout层后得MSE损失值 0.034998731473164235.

比起没有添加Dropout层的均方误差加入Dropout层后的模型均方误差从0.06减小到了0.03。可以说,我们的性能优化是成功的。

当然增加Dropout层并不是我们唯一可以在模型创建过程中可以调节的内容我们还可以通过增加或者减少模型的层数、通过改变层的类型比如用GRU或者SimpleRNN来替换LSTM来找到对于当前数据集最为适配的网络结构从而减小误差优化模型的性能。不过这个过程并没有固定原则只能反复去尝试。

介绍完模型创建过程中的正则化技巧,下面我们接着看看,神经网络在调参时有什么需要注意的地方。

调参时的考量:更新优化器并设置学习速率

其实,在神经网络的训练过程中,除了存在过拟合的问题之外,还有一个很严重的问题需要解决,就是卡在“局部最低点”的问题。

和线性回归函数一样神经网络也是通过梯度下降来实现参数的最优化不过有一点不同的是线性回归函数仅存在一个全局最低点而神经网络因为函数十分复杂会出现很多的局部最低点在每一个局部最低点导数的值都为0。没有求导后的正负梯度下降也就没有任何方向感所以这时候神经网络的参数也不知道应该往哪里“走”因此神经网络模型并不能够总是得到最佳的训练结果。

基于这个问题,人们发明了一系列的神经网络优化器,这些优化器可以在编译神经网络时作为参数传入神经网络,解决局部最低点的问题。

具体是怎么解决的呢我们就以SGD优化器为例。SGD优化器利用了动量的原理也就是在梯度下降时借助惯性越过当前的局部最低点来寻找网络中损失更小的地方。

这个思路不难理解,你可以想象一个小球从山坡上滑下来,在下坡的过程中,遇到一个局部最低点,如果小球此时的速度很慢,就会卡在这个局部最低点上。这时候,小球无论是向左移动还是向右移动,都很难越过去,对于模型来说,无论是向左还是向右,都会导致损失值增大。

这时候我们给这个SGD优化器传入一个叫“学习速率”的参数来调节小球的快慢也就是梯度下降的快慢这里你可以把“学习速率”直观理解为“加速度”。如果SGD优化器的学习速率很小那小球就冲不出这个局部最低点参数就无法继续优化如果学习速率很大它就可能帮小球成功越过局部最低点进入下一个下坡轨道去寻找更优的权重参数。

除了SGD优化器之外还有许多其他优化器比如Adagrad它也是一种基于梯度的优化方法叫作自适应梯度adaptive gradient也就是不同的参数可以拥有不同的学习速率。

Adagrad能根据前几轮迭代时的历史梯度值来调整学习速率。对于数据集中的稀疏特征来说Adagrad会使用较大的学习速率此时梯度下降步幅将较大。这里的稀疏特征意思就是指类别非常多但是每个类别的特征数量很少一个很典型的例子就是对文本数据的词向量编码。

对于非稀疏特征Adagrad则使用较小的值更新学习速率。因此这个优化算法适合处理含稀疏特征的数据集比如在文本处理的词向量word embedding训练过程中对频繁出现的单词赋予较小的更新对不经常出现的单词则赋予较大的更新。

还有我们之前见过的RMSprop优化器它解决的是Adagrad 中学习速率有时会急剧下降的问题。RMSProp抑制学习速率下降的方法不同于普通的动量它是采用窗口滑动加权平均值来计算二阶动量。同时它还可以保存Adagrad 中每个参数自适应不同的学习速率。

另一种常见的优化器叫Adam它是一种基于一阶和二阶矩的自适应估计的随机梯度下降方法。这种优化器计算效率高内存需求小是前面各种优化器的集大成者并且非常适合数据和参数都较大的问题。

在实际的机器学习项目中这几种优化器都可用目前较常用的是RMSprop和Adam但是你也可以尝试其他的哪个效果好就用哪个。

另外,在刚才的优化器介绍中,出现了一些新名词和数学概念,你可能不太理解,这并没有关系,我们只需要从应用的角度出发,把优化器当作是调解神经网络模型的“手柄”就可以了。当然,除了我上面介绍的优化器之外,还有很多其它类型的优化器,你可以查阅Keras文档

那么问题来了在我们构建神经网络的过程中怎么设定这些优化器呢答案是compile方法。当我们搭建好神经网络的架构后需要通过这个方法进行编译。具体的代码我们在之前CNN和RNN的实战中其实已经见过了

cnn.compile(loss='categorical_crossentropy', # 损失函数
            optimizer='RMSprop'), # 更新优化器并设定学习速率
            metrics=['acc']) # 评估指标

RNN_LSTM.compile(loss='mse', #损失函数
                 optimizer='rmsprop', #优化器
                 metrics=['mae']) #评估指标

可以看到这里有3个可以调节的参数分别是loss、optimizer和metrics。其中optimizer就是设置优化器loss是用来指定损失函数的。对于多元分类问题我们一般用categorical_crossentropy指定损失函数对于二元分类问题一般是用binary_crossentropy如果是回归问题你可以选择mse也就是均方误差。

至于评估指标metrics我们当然也不陌生。对于分类问题我们可以使用acc也就是分类准确率作为评估指标对于回归问题则可以选择使用mae即绝对平均绝对误差。

在这三个参数里optimizer自然是和性能优化最相关的参数。很多时候神经网络完全没有训练起来就是优化器以及优化器的学习速率设定的不好。我们构建上一讲中的循环神经网络模型的时候采用了RMSprop优化器。现在我们就在compile方法中更换一下优化器把RMSProp更换成Adam并同时设定一个学习速率来看一看网络的性能是否有所提升。

from tensorflow.keras.optimizers import Adam #导入Adam优化器
……
RNN_LSTM.compile(loss='mse', # 损失函数 
             optimizer=Adam(lr=1e-4), # 更新优化器并设定学习速率 
             metrics=['mae']) # 评估指标
history = RNN_LSTM.fit(X_train,y_train, # 指定训练集 
                   epochs=10, # 指定轮次 
                   batch_size=256, # 指定批量大小 
                   validation_data=(X_test,y_test)) # 指定验证集

接着我们来看一下更新了优化器之后RNN网络训练过程的损失曲线

可以看到,训练集和验证集的损失曲线展现出了更多的一致性。

此时,我们显示模型两次调优前后的均方误差:

print("调优前MSE损失值 {}.".format(mean_squared_error(y_test, y_pred)))
print("添加Dropout层之后的MSE损失值 {}.".format(mean_squared_error(test, y_pred_dropout)))
print("设置优化器后的MSE损失值 {}.".format(mean_squared_error(y_test, y_pred_optimizer)))

输出如下:

调优前MSE损失值 0.06139160691187054.
添加Dropout层后的MSE损失值 0.034998731473164235.
设置优化器后的MSE损失值 0.006510688077187477.

结果显示,模型在测试集上的均方误差进一步减小了,这说明我们的优化方向是正确的。

你可能会想知道为什么Adam优化器在这里比RMSProp更优这其实并不是很容易解释深度学习比较强大但是它又近似于“玄学”可解释性相对较差。因此对于每一个数据集我们都需要反复尝试、调试各种参数哪个好就用哪个。这是深度学习本身的特点。因此优化器的选择和学习速率的设定也是如此需要我们凭借经验和感觉来确定。总体上说我们比较常用的优化器就是RMSprop和Adam这两种。

总结一下

好,今天这一讲到这里就结束了,我们来回顾一下你在这节课中学到了什么。

在这一讲中我们介绍了三个深度学习神经网络性能优化的方法。第一个方法是针对图形数据做增广也就是把有限的数据个数变多。其实不只是CNN网络对于其他神经网络模型乃至神经网络模型之外的模型来说数据的数量都是多多益善。数据的量越大模型出现过拟合的风险就越小。

第二个方法是在网络模型中增加一些Dropout层这种类型的神经网络层通过阻止各个神经元之间的共同作用阻止它们形成固定的特征提取模式来提高神经网络的泛化能力。

第三个方法是尝试使用不同类型的神经网络优化器来克服网络训练时落入局部最低点的问题。其中最常用的神经网络优化器是Adam但具体到每一个数据集来说可能还有更适合自己的优化器因此我建议你在实际项目中最好还是多试试不同的优化器。就目前而言RMSprop和Adam都是常用的优化器而Adam 更是多种优化思路的集大成者,一般情况下是优化器的首选项。

如何优化深层神经网络的性能是一个很大的课题。希望这一讲的内容能带给大家一个基本的思路。

思考题

这节课就到这里了最后我给你留3个思考题

  1. 请你试着在我们创建的LSTM网络中加入更多或者更少的Dropout层并显示损失曲线看一看神经网络性能的变化。
  2. 请你试着在我们创建的神经网络中加入更多或者很少的CNN层或者LSTM层并显示损失曲线看一看神经网络性能的变化。
  3. 请你试着使用其它的神经网络优化器编译我们创建的神经网络,并显示损失曲线,看一看神经网络性能的变化。

欢迎你在留言区分享你的想法和收获,我在留言区等你。如果这节课帮到了你,也欢迎你把这节课分享给自己的朋友。我们下一讲再见!