You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

20 KiB

20 | 模型部署:怎么发布训练好的机器学习模型?

你好,我是黄佳。欢迎来到零基础实战机器学习。

截止到现在,我们这个课程一直都是在本机上跑模型、分析和预测数据。但实际上,机器学习技术并不局限于离线应用,它也可以被部署到生产系统中发挥作用。

在具体部署时出于对灵活性或者运行速度的需要开发人员有可能会用Java、C或者C++等语言重写模型。当然重写模型是非常耗时耗力的也不一定总是要这样做。像Tensorflow、PyTorch、Sklearn这些机器学习框架都会提供相应的工具把数据科学家调试成功的机器学习模型直接发布为Web服务或是部署到移动设备中。

在这一讲中,我们会通过一个非常简单的示例,来看看怎么把我们之前做过的预测微信文章浏览量的机器学习模型嵌入到Web应用中让模型从数据中学习同时实时接收用户的输入并返回预测结果。由于移动设备上的部署还需要一些额外的步骤和工具如Tensorflow Lite等我这里不做展示你有兴趣的话可以阅读相关文档

我先给你看看搞定后的页面:

在进入具体的部署之前我带你先整体了解一下要搭建这个基于Web的机器学习应用我们需要构建哪些模块。

整个项目需要构建哪些模块?

在这个项目中,我们实际上要构建的模块有三个:

  • 机器学习模型我们会把机器学习模型序列化生成二进制文件通过载入这个文件Web应用程序中就生成了可以调用的机器学习模型对象我们可以根据Web端传入的点赞数、转发数用模型来预测对应的浏览量。关于序列化我们一会儿会详细讲到。
  • 用Flask开发的Web应用它通过REST API接收用户输入的点赞数和转发数信息根据我们的模型计算预测值并返回它。Flask是一个使用Python编写的轻量级Web应用框架简单易用这里我们将用它来开发Web应用。
  • HTML页面模板允许用户输入点赞数和转发数信息并提交给Web服务器当Web应用收到信息之后就会调用机器学习模型并在HTML页面中显示浏览量的预测值。

那么这三个模块在整个Web应用中是如何协作的呢我们来看看这张流程图

首先用户通过HTML页面输入点赞数和转发数并发送预测的REST API请求。代理服务器Nginx接收到请求后将请求转发给后端服务器uWSGI。接着后端服务器uWSGI会把请求继续转发给Web应用程序这时候Web应用程序会载入机器学习模型并根据接收到的点赞数和转发数进行预测。预测出的结果再经由Web应用程序、后端服务器uWSGI、代理服务器Nginx一路返回给HTML页面呈现给用户。

你可能已经注意到在图的上半部分还有一个“数据导入机器学习模型做训练”的过程。这个过程其实只需要完成一次就是在我们首次创建好模型的时候用提前准备好的数据集训练模型。后续Web应用程序每次载入模型都不需要再调用数据集进行训练。

基于上面这个流程,我们再来看下这个项目的目录结构(你可以在这里下载这些文件):

可以看到在这个项目中包含了5个文件文件夹分别是

  • templates这个文件夹中存放着HTML文件index.html这是给用户看的网页模板也就是对应着用户能够浏览并输入信息的HTML页面
  • app.py它就是Web API的开发源文件负责部署机器学习模型
  • model.py这是一个Python脚本文件存放着我们创建、拟合机器学习模型的代码。Python脚本文件不是像Jupyter Notebook那样一个单元格一个单元格交互地执行而是在命令行整体执行。这个文件执行后会生成一个存储模型的二进制文件model.pkl提供给Web API导入。
  • model.pkl就是刚才讲的model.py执行时生成的文件用来存储模型。
  • 易速鲜花微信软文.csv:这就是我们用来训练模型的数据集。

下面我们就从最简单、最容易理解的HTML页面开始一步步搭建来这个项目。

创建HTML模板

因为我们现在不再是从本机上跑机器学习模型那么就需要有一个HTML页面提供给用户通过网络来输入要预测的东西也就是特征。这也就是我们通常说的前端这个不难理解。

HTML的语法也很简单具体代码如下

<!DOCTYPE html>
<html >
<head>
  <meta charset="UTF-8">
  <title>机器学习部署应用</title>


</head>


 <div class="login">
	<h1>浏览量预测</h1>


     <!-- Main Input For Receiving Query to our ML -->
    <form action="{{ url_for('predict')}}"method="post">
        <input type="text" name="点赞数" placeholder="点赞数" required="required" />
		<input type="text" name="转发数" placeholder="转发数" required="required" />
        <button type="submit" class="btn btn-primary btn-block btn-large">预测浏览量</button>
    </form>


   <br>
   <br>
   {{ prediction_text }}


 </div>
</body>
</html>

这段代码其实构建了这样一个页面:

在这个页面中用户需要填写两个字段一个是点赞数另一个是转发数。这二者都是机器学习模型的特征字段。在这两个字段的旁边还有一个Button“预测浏览量”用户输入好特征字段后就可以直接点击这个Button此时页面会发送Request给Web应用让它返回模型所预测的标签。

现在我们把上面的HTML代码Copy下来另存为HTML格式的文档并放在项目结构的templates目录之下就好了。注意它目前只是一个模板其中的具体内容还要通过Web应用进行动态的渲染这个我们等会再细说。

网页模板创建好了之后,我们就要创建能够预测微信软文浏览量的机器学习模型。这个机器学习的创建流程非常简单,你可以回忆一下第3讲第4讲的内容,同时,你也可以在这里找到“易速鲜花微信软文”数据集。下面,我会带你重新创建一个极简的模型,你可以把它视为我们对之前内容的一次复习。

创建机器学习模型

整个创建过程说起来很简单。首先,我们使用 Pandas 的fillna函数处理一下数据集中点赞数字段的缺失值你也可以考虑用均值填充。然后我们再创建线性回归模型作为机器学习算法并进行拟合和预测。最后我们把这个模型保存为model.py文档。

这里你需要注意的是,“.py”格式的Python脚本文件可以整体运行它不是像Jupyter Notebook中那样按每个单元格来一步步运行这其实只是为了简化流程。而编辑器我使用的是Annaconda中自带的Spyder如下图所示当然你也可以使用其他Python开发环境来编辑这并没有特别的限制。

我们看一下整个创建机器学习模型的Python代码

import pandas as pd # 导入Pandas
import pickle # 导入序列化工具Pickle


df_ads = pd.read_csv('易速鲜花微信软文.csv') #导入数据集


df_ads['转发数'].fillna(df_ads['点赞数'], inplace=True) #一种补值方法


X = df_ads.drop(['浏览量'],axis=1) # 特征集Drop掉标签相关字段
y = df_ads.浏览量 # 标签集


from sklearn.linear_model import LinearRegression #导入线性回归模型
regressor = LinearRegression() #创建线性回归模型


regressor.fit(X, y) #拟合模型


pickle.dump(regressor, open('model.pkl','wb')) #序列化模型(就是存盘)


model = pickle.load(open('model.pkl','rb')) #反序列化模型(就是再导入模型)


print(model.predict([[300, 800]])) #进行一个预测

这段Python代码就是我们反复操练过的机器学习实战5步相信你并不陌生。代码中唯一的新东西是Pickle。Pickle 是Python 中的序列化和反序列化工具可以将Python对象以文件的形式存放在磁盘上以供后面的Web应用调用它。

具体来讲Pickle会把内存中的模型对象也就是Python对象转换为0和1的字节流形成字节流文件model.pkl存储到磁盘这个过程叫存盘也叫“序列化”。

这个字节流文件model.pkl可以被保存到磁盘的任意地方当我们需要调用模型的时候Pickle 会把磁盘中的model.pkl再转换为Python对象存在内存中。这个时候模型就被还原了可以使用了。这个过程就叫做“反序列化”。

在上面的代码中pickle.dump()做的就是序列化pickle.load()做的就是反序列化。对于这两个过程,你可以通过下面这张图做进一步的理解:

当我们把上面那段Python代码存为model.py文档并在Spyder中运行model.py后模型就完成了创建、训练和拟合的过程同时也经历了序列化。这时候model.py所在目录下就出现了一个字节流文件model.pkl文件

我们前面提到在Web应用调用模型的过程中需要把模型对象做一个转换然后模型才能被使用。虽然我们用Pickle实现这个过程比较方便但是它要求应用程序也是Python语言开发的否则应用程序无法读取Pickle所生成的序列化文件。

显然这并不适用于我们所有的应用开发需求。因此这里我再给你介绍几种模型序列化和导出的格式如果你在工程实践中需要使用参考相关文档即可它们的原理和Pickle是类似的。

  • JoblibJoblib是一组在 Python 中提供轻量级流水线pipelining的工具它的功能和Pickle相似。Joblib通过缓存机制将磁盘上的文件隐式链接到原始 Python 对象的执行上下文并支持简单的并行计算。和Pickle相比它的优势是并行化、良好的日志、追踪功能以及大数据支持。
  • ONNXONNX是一种开放神经网络交换格式支持跨语言存储和移植预测模型。大多数深度学习库都支持它其中sklearn有专门的扩展库负责把模型转换为ONNX的格式。
  • PMMLPMML是预测模型的另一种交换格式。与ONNX一样sklearn也有一个专门的扩展库用于将模型转换为PMML格式。不过它的缺点是仅支持某些类型的预测模型。 PMML历史悠久出现于1997年因此有大量的应用程序使用这个格式例如PEGA和SAP等。
  • POJO 和 MOJOPOJO和MOJO是H2O.ai的导出格式,旨在为 Java 应用程序提供一个易于嵌入的模型。然而,它们仅适用于使用 H2O 的平台。

好了现在我们有了HTML网页模板和机器学习模型下一步我们开始创建Web应用用这个应用来调用机器学习模型。

创建Web应用并在其中调用模型

创建Web应用并不复杂我们用Flask就可以轻松完成。Flask是一个使用Python编写的轻量级Web应用框架它内置开发服务器和调试器也支持RESTful 请求,不需要我们做复杂的搭建。

我们前面说这个Web应用的主要作用是在接收到HTML页面传来的信息后调用模型计算出预测结果然后把预测结果返回给HTML页面。

当然这只是一个大致的过程详细来讲这里面有两个关键步骤需要你注意。第一在调用模型的时候我们需要把模型从字节流文件反序列化为Python对象然后这个模型才能正式被使用这一点我们在前面提到过。

第二Web应用在接收到用户输入的信息后实际上会调用index.html模板生成一个/predict页面这个页面是最终呈现给用户的其中会包含预测结果。在模型预测出结果后Web应用会把这个结果提交到这个/predict页面返回给用户。

理解了这两点后,我们现在来看具体的代码:

import numpy as np #导入NumPy
from flask import Flask, request, render_template #导入Flask相关包
import pickle #导入模块序列化包


app = Flask(__name__) 
model = pickle.load(open('model.pkl', 'rb')) #反序列化模型


@app.route('/')
def home(): # 默认启动页面
    return render_template('index.html') # 启动index.html


@app.route('/predict',methods=['POST'])
def predict(): # 启动预测页面


    features = [int(x) for x in request.form.values()] # 输入特征
    label = [np.array(features)] # 标签
    prediction = model.predict(label) # 预测结果


    output = round(prediction[0], 2) #输出预测结果


    return render_template('index.html', #预测浏览量
                           prediction_text='浏览量 $ {}'.format(output)


if __name__ == "__main__": # 启动程序
    app.run(debug=True)

那么这个Web应用就把我们之前训练好的模型和HTML页面串联起来了并能接收HTML请求返回结果。

考虑到你可能不太理解这些代码的具体含义现在我给你简单讲解一下。前几行是导入相关包这没什么好解释的我们直接从第6行代码开始看。第6行model = pickle.load(open(model.pkl, rb))的意思就是导入序列化后的模型,并进行反序列化。

紧接着下一行代码@app.route (/index)是一个装饰器。简单来说,它只是将它下面定义的方法映射到装饰器中提到的 URL也就是每当用户访问该 URL / (完整地址也会有一个 ip 地址和一个端口号,比如 http://127.0.0.1:5000/index()方法将被自动调用, index() 方法返回index.html 。注意我们在index.html 为用户提供了两个输入框,用户可以在其中输入任意的点赞数和转发数的值。

而在home()函数中flask.render_template()会查找index.html模板并渲染出也就是在运行时动态生成一个最终给到用户的HTML页面。

第12行代码@app.route (/predict)也是一个装饰器这个装饰器将predict()方法映射到以“/predict”结尾的URL ,它接受用户提供的输入,完成所有预处理,生成最终特征集,然后调用模型并获得最终预测值。

而其中render_template()函数所做的工作就是动态渲染HTML页面部分将预测结果放入 HTML 页面中。只有当用户输入特征并点击index.html页面中的提交按钮时预测结果才会被显示。在index.html模板中我们已经为这些变量值创建了占位符而render_template 负责获取模板文件夹中的index.html把预测值放进HTML模板渲染出包含最终预测结果的HTML页面。

通过上述讲解我想你应该可以理解这段创建Web应用的代码了。那到这里呢我们所有的编码工作也就完成了下面我们就来启动这个Web应用。

使用已经发布的App

我们单击Spyder的Run按钮就能启动Web应用。当然你还可以在命令行界面中使用python app.py来运行它。

App启动运行后IPython Console中的输出如下

runfile('C:/Users/jacky.huang/20/app.py', wdir='C:/Users/jacky.huang/20')
 * Serving Flask app "app" (lazy loading)
 * Environment: production
   WARNING: This is a development server. Do not use it in a production deployment.
   Use a production WSGI server instead.
 * Debug mode: on
 * Restarting with windowsapi reloader

这表明此时Web应用已经开始在WSGI服务器上运行等候客户端页面随时发送请求。

现在,我们打开一个本机浏览器,访问http://127.0.0.1:5000/页面。服务器返回如下HTML页面

然后,我们充当用户角色,输入点赞数和转发数,希望基于这些数值来预测浏览量:

点击“预测浏览量”提交数据后,我们得到了浏览量预测结果:

这说明服务器成功接到HTML页面发送过来的POST API的请求并根据模型的预测通过http://127.0.0.1:5000/predict页面返回了预测结果当点赞数为500转发数为300时机器学习模型预测的文章浏览量是46292。

这样我们就把一个简单的机器学习模型打包成了一个Web应用成功的部署到网页中啦

总结一下

到这里,我们这一讲就结束了。现在,我们整体做个回顾。

通常我们会把机器学习模型部署到生产系统Web端或移动端中投入使用。部署机器学习模型有多种方式比如开发人员重新编写模型、通过Web应用把模型部署到Web服务器、通过Tensorflow Lite等工具部署到移动端等等。

这一讲我们重点介绍了怎么把机器学习模型发布为Web应用。总体上有这么几个开发环节

  1. 开发前端网页HTML呈现模板用于传递用户输入的特征同时显示服务器返回的预测结果
  2. 创建机器学习模型对于模型的训练数据集我这里仍然使用了csv文件
  3. 通过Pickle工具进行序列化保存机器学习模型
  4. 用Flask框架开发一个轻量级的Web应用。其中我们是先反序列化了机器学习模型然后再把机器学习应用部署到Web服务器上。

实际上这几个环节都分别有多种实现方式比如在模型训练数据时你可以通过访问数据库的方式来获取实时的数据文件在模型序列化时你也可以使用Joblib来代替Pickle在开发Web应用时你可以选择除Flask之外的其他框架……具体方式你可以根据实际需要灵活选择。

思考题

下面,我给你留两道思考题。

  1. 这里我是把预测微信软文浏览量的模型集成在了Web应用中你是否可以选择其它的实战模型比如预测用户的LTV价值也把它集成在Web应用中通过HTML访问并预测。
  2. 你还有哪些机器学习模型上线部署的经验,可否跟我分享一下?

欢迎你在留言区和我分享你的观点,如果你认为这节课的内容有收获,也欢迎把它分享给你的朋友,我们下一讲再见!