gitbook/零基础实战机器学习/docs/419746.md
2022-09-03 22:05:03 +08:00

281 lines
18 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 10模型优化交叉验证同时寻找最优的参数
你好,我是黄佳。
欢迎来到零基础实战机器学习。在前面几节课中,我们已经学习了两种优化机器学习模型的方法,一种是做各种特征工程,让特征集更适合模型;另一种是防止过拟合,让模型不用“那么”精确。
这两种方式的优化角度不同,特征工程是从数据预处理的角度,给出更高质量的数据,而防止过拟合则是在模型训练的过程中,控制模型的复杂度。其实,除此之外,我们还可以从模型的验证和评估环节入手,来优化模型性能。
## 交叉验证:小数据集的资源复用
你知道在样本充足的情况下我们会随机将数据分为3个部分训练集、验证集和测试集。其中训练集用来训练模型验证集用来模型调优测试集用来评估模型性能。
不过,你还记不记得我们在[第1讲](https://time.geekbang.org/column/article/413057)中介绍监督学习的时候,我说过有标签的数据是非常难以获得的。本来就很有限的数据集还要被拆成训练集、测试集和验证集,真是让人特别舍不得。
而且,我们知道数据集越大,就越不容易出现过拟合的现象。那么,我们如何利用较小的数据集,从而达到较大数据集的效果呢?这就需要交叉验证。
交叉验证的基本思想是这样的将训练数据集分为k等份其中k-1份用作训练集单独的那一份用作验证集整个过程重复k次这也通常称作k折。这样就最大程度重复地使用了训练集中的数据每一个数据都既做了训练又做了测试从而在最大程度上提高模型性能的可信度。
这种交叉验证具体实现起来有4个步骤
1. 随机清洗数据集,将数据集分为训练集和测试集,将测试集预留出来,放在一边。
2. 将训练数据集分成k组这个k值一般是随机设定比如3510实操中以10折居多。在这一步中我们挑其中1组作为验证集剩下的k-1组做训练集这个过程要重复k次。我们在这些训练集上拟合模型可以得到k个不同的模型。然后再在对应的验证集上对这些模型进行评估就能得到一系列模型的评估分数。最后我们把这些评估分数进行平均这个平均分数就是交叉验证的最终结果了。
3. 按照步骤1、2对多个算法进行交叉验证比如可以针对线性回归、决策树、随机森林等算法。根据每个算法交叉验证的评估结果从中挑选效果最好的算法模型。
4. 使用测试集评估最终模型的分数。
现在你应该很清楚了每个数据样本都有1次机会进入验证集中并用于训练模型k-1次。这样一来我们就拥有了更多的数据量。整个过程如下所示
![](https://static001.geekbang.org/resource/image/1f/27/1f97a858d3b5f4976a481b0e44210127.png?wh=341x225 "K折交叉验证示意图
")
在交叉验证中训练集和验证集的拆分可以通过sklearn.model\_selection中的KFold函数实现。在这个函数中有三个主要参数需要我们了解一下
![](https://static001.geekbang.org/resource/image/06/24/06cc789267e472b55125e52143b26f24.jpg?wh=2000x827)
下面,我们来看看交叉验证的实际用法。这里我们仍然借用[第7讲](https://time.geekbang.org/column/article/417479)中预测用户LTV的线性回归模型model\_lr我们先用KFold.split对数据集进行拆分然后对每一折循环训练出不同的模型最后给出一个验证分数。完整的代码你可以从[这里](https://github.com/huangjia2019/geektime/tree/main/%E5%8F%98%E7%8E%B0%E5%85%B310)下载。
```
from sklearn.model_selection import KFold #导入K折工具
from sklearn.metrics import r2_score #导入R2分数评估工具
kf5 = KFold(n_splits=5, shuffle=False) #5折验证
i = 1
for train_index, test_index in kf5.split(df_LTV):
X_train = df_LTV.iloc[train_index].drop(['年度LTV'],axis=1) #训练集X
X_test = df_LTV.iloc[test_index].drop(['年度LTV'],axis=1) #验证集X
y_train = df_LTV.iloc[train_index]['年度LTV'] #训练集y
y_test = df_LTV.loc[test_index]['年度LTV'] #验证集y
model_lr.fit(X_train, y_train) #训练模型
print(f"第{i}折验证集R2分数{r2_score(y_test, model_lr.predict(X_test))}")
i += 1
```
输出如下:
```
第1折验证集R2分数0.5143622747243847
第2折验证集R2分数-0.16778272779470416
第3折验证集R2分数0.23879516275929713
第4折验证集R2分数0.2482389409435588
第5折验证集R2分数0.03088299924007265
```
在实际实战中sklearn还提供了更简单的方式我们不用进行上面的KFold拆分过程只用一个cross\_val\_score函数就能直接完成模型的K折拆分、训练和验证一次性得到交叉验证结果。
接下来我们再用这种方式来评估一下刚才的线性回归模型model\_lr
```
from sklearn.model_selection import cross_val_score # 导入交叉验证工具
# from sklearn.metrics import mean_squared_error #平均绝对误差
model_lr = LinearRegression() #线性回归模型
scores = cross_val_score(model_lr, #线性回归
X_train, #特征集
y_train, #标签集
cv=5, # 五折验证
scoring = 'neg_mean_absolute_error') #平均绝对误差
for i, score in enumerate(scores):
print(f"第{i+1}折验证集平均绝对误差: {-score}")
```
这里我们把线性回归模型作为参数传入cross\_val\_score函数中同时采用5折验证计算出每一次验证的平均绝对误差也就是预测值和真值之间的平均差异误差绝对值越大效果越不好。
输出的每一折平均绝对误差值如下:
```
第1折验证集平均绝对误差3191.99882739
第2折验证集平均绝对误差1402.45679102
第3折验证集平均绝对误差1168.49187113
第4折验证集平均绝对误差1546.15537555
第5折验证集平均绝对误差1138.41271054
```
看的出来采用不同的训练集和验证集组合得到的模型分数不同。最后我们再把这5折的验证结果进行平均得到5折交叉验证的平均分数。这个分数将比仅拆分一次训练集/验证集得到的评估结果更为稳定。
我这里要强调的是,交叉验证虽然一直在用不同的数据拆分进行模型的拟合,但它实际上并不是在试图训练出新的模型,它只是我们对模型的一种评估方式而已。
好了,关于交叉验证,我们就说到这里,下面我讲一个对你来说非常实用的问题:如何调参。
## 网格搜索:直到找到最优的参数
一个复杂的机器学习模型,有可能有一大堆超参数,模型的性能很大程度上取决于超参数的值。什么超参数是最好的?那可不一定,因为针对不同的问题而言,最佳的参数一直在变化,而且基本上没有太多规律可循。那些机器学习老手很可能会告诉你:调参可是要靠感觉、靠直觉的,你调的多了,感觉也就出来了。
这样的答案会让咱们这种新手十分头疼没有什么经验怎么针对当前机器学习任务和当前数据集找到最好的参数难道要手工的一个一个尝试吗我们之前学过的线性回归模型只有两个主要超参数而且是布尔型变量组合起来是4种情况这还可以调一调。但是像随机森林这种比较复杂的模型参数非常多怎么可能一个个去试呢
你不用担心, **scikit-learn中有一个GridSearchCV工具中文叫做网格搜索堪称是辅助我们自动调参的神器**,它可以帮我们自动调参,轻松找到模型的最优参数。
那么,怎么用这个网格搜索呢?我们需要做的有这几步:
* 第一步,明确你选择的模型有哪些可调的参数,这个你可以通过查看算法的说明文档来确定;
* 第二步,把模型中各超参数不同取值的排列组合尽可能多地列出来;
* 第三步调用GridSearchCV工具把可能的排列组合都传进去。
完成这三步后GridSearchCV会在后台创建出一大堆的并行进程挨个执行各种超参数的组合同时还会使用交叉验证的方法名称中的CV意思就是cross validation来评估每个超参数组合的模型。最后GridSearchCV会帮你选定哪个组合是给定模型的最佳超参数值。
好,下面我们就基于[第7讲](https://time.geekbang.org/column/article/417479)中的LTV预测项目看看怎么用GridSearchCV选出随机森林模型比较好的参数组合在之前的实战中模型的参数都选择的是默认值
在调用GridSearchCV调参之前我们首先找出随机森林回归模型中有哪些参数最好的方法还是去[sklearn官网](https://scikit-learn.org/stable/)查看。我们在这儿拿出一些重要的超参数来调一下:
![](https://static001.geekbang.org/resource/image/68/fa/687c464e312272c66397ea795fa91efa.jpg?wh=2000x1016)
我们知道随机森林是由多棵决策树集合而成的算法所以这些参数都和各决策树的生成和剪枝过程相关。上面这些参数我们并不一定要完全理解它们的作用因为我们的重点不是去详细了解每一个超参数而是让GridSearchCV自动找到对于我们当前任务合适的超参数组合。
找出随机森林模型的参数后接下来我们需要在程序中定义一个字典对象列出各个超参数以及我们希望去尝试的值组合你可以参考下面的代码。在这段代码中我定义了rfr\_param\_grid字典对象并在字典中指定了一系列参数值的组合举例来说对于n\_estimators这个参数我就选择了100和300当然你也可以尝试任意其它的值。
```
model_rfr = RandomForestClassifier() # 随机森林模型
# 对随机森林算法进行参数优化
rf_param_grid = {"max_depth": [None],
"max_features": [3, 5, 12],
"min_samples_split": [2, 5, 10],
"min_samples_leaf": [3, 5, 10],
"bootstrap": [False],
"n_estimators" :[100,300],
"criterion": ["gini"]}
```
然后在要调用GridSearchCV 来进行超参数搜索之前我们先看看GridSearchCV这个函数本身有什么需要设定的参数。
![](https://static001.geekbang.org/resource/image/e1/53/e1c2dc9127e70f050e3e2014d3b41853.jpg?wh=2000x1147)
下面我们来调用GridSearchCV这个函数
```
from sklearn.model_selection import GridSearchCV # 导入网格搜索工具
model_rfr_gs = GridSearchCV(model_rfr,
param_grid = rfr_param_grid, cv=3,
scoring="r2", n_jobs= 10, verbose = 1)
model_rfr_gs.fit(X_train, y_train) # 用优化后的参数拟合训练数据集
```
在上述代码中我将GridSearchCV返回的最佳参数组合存储在了rfr\_gs这个新的随机森林模型。
然后,系统就会自动计算每种超参数组合拟合出的模型的准确率/损失:
```
Fitting 3 folds for each of 432 candidates, totalling 1296 fits
[Parallel(n_jobs=10)]: Using backend LokyBackend with 10 concurrent workers.
[Parallel(n_jobs=10)]: Done 30 tasks | elapsed: 22.0s
[Parallel(n_jobs=10)]: Done 180 tasks | elapsed: 2.0min
[Parallel(n_jobs=10)]: Done 430 tasks | elapsed: 4.8min
[Parallel(n_jobs=10)]: Done 780 tasks | elapsed: 8.7min
[Parallel(n_jobs=10)]: Done 1230 tasks | elapsed: 12.6min
[Parallel(n_jobs=10)]: Done 1296 out of 1296 | elapsed: 13.2min finished
```
你要注意的是,随机森林模型可能的超参数组合非常多,因此这个训练过程在我们的电脑上可能会持续很久很久,所以我特意没有设定太多的参数组合,而是选取了其中一部分。不过,这个训练过程也是花了十几分钟才搜索完。
经过GridSearchCV自动地换参、拟合并自动交叉验证评估后最佳参数组合实际上已经被选出了它就被存储在model\_rfr\_gs这个新的随机森林中我们可以直接用它来做预测。这里我们调用model\_rfr\_gs的best\_params\_属性来看一下这个最优模型是由哪些超参数组合而成的
```
print(" 最佳参数组合:", model_rfr_gs.best_params_)
```
输出如下:
```
最佳参数组合: {'bootstrap': True, 'max_depth': 10, 'max_features': 'sqrt', 'min_samples_leaf': 2, 'min_samples_split': 2, 'n_estimators': 50}
```
然后,我们看看 GridSearchCV 模型的准确性。
```
from sklearn.metrics import r2_score, median_absolute_error #导入Sklearn评估模块
print('训练集上的R平方分数-调参后的随机森林: %0.4f' % r2_score(y_train, model_rfr_gs.predict(X_train)))
print('测试集上的R平方分数-调参后的随机森林: %0.4f' % r2_score(y_valid, model_rfr_gs.predict(X_valid)))
```
输出如下:
```
训练集上的R平方分数-随机森林: 0.7729
测试集上的R平方分数-随机森林: 0.6523
```
这个分数需要和以前只调用随机森林模型默认参数的结果进行比较,所以,在这里我对这个模型训练了两次:一次不使用 GridsearchCV使用默认超参数另一次我们使用 GridSearchCV 找到超参数最佳值。下面我们比较一下这两次的分数:
![](https://static001.geekbang.org/resource/image/7f/fe/7faff6e1e1ee9fb72d05ce817f467efe.png?wh=384x262)
结果显示,经过网格搜索参数调优之后,虽然训练集上的分数降低了,但是在验证集上面的分数提升了,真棒!
学到这里,你可能会认为上面这一组参数是随机森林回归模型超参数的最佳值。但事实并非如此,上述超参数对于我们正在处理的数据集可能是最佳选择,但是对其他数据集未必适用。
到这里,我们就学完了两个优化技巧,再加上我们在前面两讲中学的特征工程和正则化技术,你在机器学习性能调优这块,就有了基本的理论和实践知识。恭喜你正式闯过“变现关”!
## 总结一下
这一讲中,我们学了两个和模型优化相关的方法,分别是交叉验证和网格搜索。
交叉验证是机器学习训练和验证模型时有效利用数据的方法,它的基本思路就是重复的使用数据,把样本数据进行切分,然后重组为不同的训练集和验证集。 在这个过程中,某次训练集中的某个样本在下次就可能成为验证集中的样本,所以被称作“交叉”。
网格搜索是帮我们优化模型超参数的技术它在本质上是一种穷举法。对于每个超参数我们都会指定一些可能的值。然后GridSearchCV会组合这些参数值得到若干组超参数并使用每组超参数来训练模型最后挑选出验证集上误差最小的超参数来作为该模型的最优超参数。
这两个工具使用起来非常简单,你可以通过代码反复演练它们,尝试各种不同的验证折数和模型超参数。
那截止到这节课,我们实际上已经学习了四个提升机器学习模型效率的法宝,它们都特别重要。在这里我也帮你复习一下:
1. **特征工程**:目标是提高数据特征与模型的匹配度,我们总结了特征选择、特征变换和特征构建三个思路来帮助你解决具体问题。
2. **防过拟合**:过拟合就是模型针对训练集,拟合程度过高,失去了在新数据集上泛化的能力。我们的模型要在拟合和泛化之间保持一个平衡。
3. **交叉验证**:交叉验证可以帮我们利用好有限的数据集。你要注意,我们说的过拟合也有可能不是模型导致的,而可能是因为数据集划分不合理造成的,这在比较小的数据集上尤为明显。所以,交叉验证所得到的多次评估结果,能够避免某一次数据集划分不合理所带来的偏差。
4. **参数调优**:每一种算法都有属于自己的一系列可调超参数(外部参数),你要尽力找到对于当前数据集而言最好的一套参数。
在下一讲中,我们将开启激活关,让我们一起期待吧!
## 思考题
这节课就到这里了,最后,我想给你留三个思考题:
1. 除了最简单的交叉验证函数cross\_val\_score之外sklearn还提供另外一个函数cross\_validate这个函数和cross\_val\_score的区别有两点一是它允许指定多个评估指标二是它返回的信息更丰富除评估分数之外它还返回一个包含拟合时间、分数时间、以及可选的训练集分数和拟合模型的字典。请你尝试使用这个函数并分析它返回的信息。
提示:
```
scores = cross_validate(lasso, X, y, cv=3,
scoring=('r2', 'neg_mean_squared_error'),
return_train_score=True)
```
2. 除了普通的KFold方法之外还有重复K折RepeatedKFold、留一法分折LeaveOneOut、留多法分折LeavePOut等变体也可以为数据分折那么。请你尝试用这些方法来拆分数据做交叉验证。
提示:
```
from sklearn.model_selection import RepeatedKFold
from sklearn.model_selection import LeaveOneOut
from sklearn.model_selection import LeavePOut
...
>>> loo = LeaveOneOut()
>>> for train, test in loo.split(X):
... print("%s %s" % (train, test))
```
3. 除GridSearchCV之外sklearn还提供了另一个网格搜索API叫RandomizedSearchCV中文名是随机搜索。对于完全相同的参数空间随机搜索运行时间比起网格搜索会大大降低这是因为它采用的是随机参数组合。不过随机搜索返回的模型性能可能会稍差这就是时间和最优性能的一种权衡。请你尝试使用RandomizedSearchCV进行搜索找到比较好的超参数。
提示:
```
from sklearn.model_selection import RandomizedSearchCV
random_search = RandomizedSearchCV(clf, param_distributions=param_dist,
n_iter=n_iter_search)
```
欢迎你在留言区分享你的想法和收获,我在留言区等你。如果这节课帮到了你,也欢迎你把这节课分享给自己的朋友。我们下一讲再见!
![](https://static001.geekbang.org/resource/image/f1/23/f16f468d8e15018923564b9e7a784a23.jpg?wh=2284x1280)