gitbook/网络编程实战/docs/146664.md
2022-09-03 22:05:03 +08:00

12 KiB
Raw Permalink Blame History

27 | I/O多路复用遇上线程使用poll单线程处理所有I/O事件

你好我是盛延敏这里是网络编程实战第27讲欢迎回来。

我在前面两讲里分别使用了fork进程和pthread线程来处理多并发这两种技术使用简单但是性能却会随着并发数的上涨而快速下降并不能满足极端高并发的需求。就像第24讲中讲到的一样这个时候我们需要寻找更好的解决之道这个解决之道基本的思想就是I/O事件分发。

关于代码,你可以去GitHub上查看或下载完整代码。

重温事件驱动

基于事件的程序设计: GUI、Web

事件驱动的好处是占用资源少,效率高,可扩展性强,是支持高性能高并发的不二之选。

如果你熟悉GUI编程的话你就会知道GUI设定了一系列的控件如Button、Label、文本框等当我们设计基于控件的程序时一般都会给Button的点击安排一个函数类似这样

//按钮点击的事件处理
void onButtonClick(){
  
}

这个设计的思想是一个无限循环的事件分发线程在后台运行一旦用户在界面上产生了某种操作例如点击了某个Button或者点击了某个文本框一个事件会被产生并放置到事件队列中这个事件会有一个类似前面的onButtonClick回调函数。事件分发线程的任务就是为每个发生的事件找到对应的事件回调函数并执行它。这样一个基于事件驱动的GUI程序就可以完美地工作了。

还有一个类似的例子是Web编程领域。同样的Web程序会在Web界面上放置各种界面元素例如Label、文本框、按钮等和GUI程序类似给感兴趣的界面元素设计JavaScript回调函数当用户操作时对应的JavaScript回调函数会被执行完成某个计算或操作。这样一个基于事件驱动的Web程序就可以在浏览器中完美地工作了。

在第24讲中我们已经提到通过使用poll、epoll等I/O分发技术可以设计出基于套接字的事件驱动程序从而满足高性能、高并发的需求。

事件驱动模型也被叫做反应堆模型reactor或者是Event loop模型。这个模型的核心有两点。

第一它存在一个无限循环的事件分发线程或者叫做reactor线程、Event loop线程。这个事件分发线程的背后就是poll、epoll等I/O分发技术的使用。

第二所有的I/O操作都可以抽象成事件每个事件必须有回调函数来处理。acceptor上有连接建立成功、已连接套接字上发送缓冲区空出可以写、通信管道pipe上有数据可以读这些都是一个个事件通过事件分发这些事件都可以一一被检测并调用对应的回调函数加以处理。

几种I/O模型和线程模型设计

任何一个网络程序,所做的事情可以总结成下面几种:

  • read从套接字收取数据
  • decode对收到的数据进行解析
  • compute根据解析之后的内容进行计算和处理
  • encode将处理之后的结果按照约定的格式进行编码
  • send最后通过套接字把结果发送出去。

这几个过程和套接字最相关的是read和send这两种。接下来我们总结一下已经学过的几种支持多并发的网络编程技术引出我们今天的话题使用poll单线程处理所有I/O。

fork

第25讲中我们使用fork来创建子进程为每个到达的客户连接服务。这张图很好地解释了这个设计模式可想而知的是随着客户数的变多fork的子进程也越来越多即使客户和服务器之间的交互比较少这样的子进程也不能被销毁一直需要存在。使用fork的方式处理非常简单它的缺点是处理效率不高fork子进程的开销太大。

pthread

第26讲中我们使用了pthread_create创建子线程因为线程是比进程更轻量级的执行单位所以它的效率相比fork的方式有一定的提高。但是每次创建一个线程的开销仍然是不小的因此引入了线程池的概念预先创建出一个线程池在每次新连接达到时从线程池挑选出一个线程为之服务很好地解决了线程创建的开销。但是这个模式还是没有解决空闲连接占用资源的问题如果一个连接在一定时间内没有数据交互这个连接还是要占用一定的线程资源直到这个连接消亡为止。

single reactor thread

前面讲到,事件驱动模式是解决高性能、高并发比较好的一种模式。为什么呢?

因为这种模式是符合大规模生产的需求的。我们的生活中遍地都是类似的模式。比如你去咖啡店喝咖啡,你点了一杯咖啡在一旁喝着,服务员也不会管你,等你有续杯需求的时候,再去和服务员提(触发事件),服务员满足了你的需求,你就继续可以喝着咖啡玩手机。整个柜台的服务方式就是一个事件驱动的方式。

这里有一张图解释了这一讲的设计模式。一个reactor线程上同时负责分发acceptor的事件、已连接套接字的I/O事件。

single reactor thread + worker threads

但是上述的设计模式有一个问题和I/O事件处理相比应用程序的业务逻辑处理是比较耗时的比如XML文件的解析、数据库记录的查找、文件资料的读取和传输、计算型工作的处理等这些工作相对而言比较独立它们会拖慢整个反应堆模式的执行效率。

所以将这些decode、compute、enode型工作放置到另外的线程池中和反应堆线程解耦是一个比较明智的选择。反应堆线程只负责处理I/O相关的工作业务逻辑相关的工作都被裁剪成一个一个的小任务放到线程池里由空闲的线程来执行。当结果完成后再交给反应堆线程由反应堆线程通过套接字将结果发送出去。

样例程序

从今天开始,我们会接触到为本课程量身定制的网络编程框架。使用这个网络编程框架的样例程序如下:

#include <lib/acceptor.h>
#include "lib/common.h"
#include "lib/event_loop.h"
#include "lib/tcp_server.h"

char rot13_char(char c) {
    if ((c >= 'a' && c <= 'm') || (c >= 'A' && c <= 'M'))
        return c + 13;
    else if ((c >= 'n' && c <= 'z') || (c >= 'N' && c <= 'Z'))
        return c - 13;
    else
        return c;
}

//连接建立之后的callback
int onConnectionCompleted(struct tcp_connection *tcpConnection) {
    printf("connection completed\n");
    return 0;
}

//数据读到buffer之后的callback
int onMessage(struct buffer *input, struct tcp_connection *tcpConnection) {
    printf("get message from tcp connection %s\n", tcpConnection->name);
    printf("%s", input->data);

    struct buffer *output = buffer_new();
    int size = buffer_readable_size(input);
    for (int i = 0; i < size; i++) {
        buffer_append_char(output, rot13_char(buffer_read_char(input)));
    }
    tcp_connection_send_buffer(tcpConnection, output);
    return 0;
}

//数据通过buffer写完之后的callback
int onWriteCompleted(struct tcp_connection *tcpConnection) {
    printf("write completed\n");
    return 0;
}

//连接关闭之后的callback
int onConnectionClosed(struct tcp_connection *tcpConnection) {
    printf("connection closed\n");
    return 0;
}

int main(int c, char **v) {
    //主线程event_loop
    struct event_loop *eventLoop = event_loop_init();

    //初始化acceptor
    struct acceptor *acceptor = acceptor_init(SERV_PORT);

    //初始tcp_server可以指定线程数目如果线程是0就只有一个线程既负责acceptor也负责I/O
    struct TCPserver *tcpServer = tcp_server_init(eventLoop, acceptor, onConnectionCompleted, onMessage,
                                                  onWriteCompleted, onConnectionClosed, 0);
    tcp_server_start(tcpServer);

    // main thread for acceptor
    event_loop_run(eventLoop);
}

这个程序的main函数部分只有几行, 因为是第一次接触到,稍微展开介绍一下。

第49行创建了一个event_loop即reactor对象这个event_loop和线程相关联每个event_loop在线程里执行的是一个无限循环以便完成事件的分发。

第52行初始化了acceptor用来监听在某个端口上。

第55行创建了一个TCPServer创建的时候可以指定线程数目这里线程是0就只有一个线程既负责acceptor的连接处理也负责已连接套接字的I/O处理。这里比较重要的是传入了几个回调函数分别对应了连接建立完成、数据读取完成、数据发送完成、连接关闭完成几种操作通过回调函数让业务程序可以聚焦在业务层开发。

第57行开启监听。

第60行运行event_loop无限循环等待acceptor上有连接建立、新连接上有数据可读等。

样例程序结果

运行这个服务器程序开启两个telnet客户端我们看到服务器端的输出如下

 $./poll-server-onethread
[msg] set poll as dispatcher
[msg] add channel fd == 4, main thread
[msg] poll added channel fd==4
[msg] add channel fd == 5, main thread
[msg] poll added channel fd==5
[msg] event loop run, main thread
[msg] get message channel i==1, fd==5
[msg] activate channel fd == 5, revents=2, main thread
[msg] new connection established, socket == 6
connection completed
[msg] add channel fd == 6, main thread
[msg] poll added channel fd==6
[msg] get message channel i==2, fd==6
[msg] activate channel fd == 6, revents=2, main thread
get message from tcp connection connection-6
afadsfaf
[msg] get message channel i==2, fd==6
[msg] activate channel fd == 6, revents=2, main thread
get message from tcp connection connection-6
afadsfaf
fdafasf
[msg] get message channel i==1, fd==5
[msg] activate channel fd == 5, revents=2, main thread
[msg] new connection established, socket == 7
connection completed
[msg] add channel fd == 7, main thread
[msg] poll added channel fd==7
[msg] get message channel i==3, fd==7
[msg] activate channel fd == 7, revents=2, main thread
get message from tcp connection connection-7
sfasggwqe
[msg] get message channel i==3, fd==7
[msg] activate channel fd == 7, revents=2, main thread
[msg] poll delete channel fd==7
connection closed
[msg] get message channel i==2, fd==6
[msg] activate channel fd == 6, revents=2, main thread
[msg] poll delete channel fd==6
connection closed

这里自始至终都只有一个main thread在工作可见单线程的reactor处理多个连接时也可以表现良好。

总结

这一讲我们总结了几种不同的I/O模型和线程模型设计并比较了各自不同的优缺点。从这一讲开始我们将使用自己编写的编程框架来完成业务开发这一讲使用了poll来处理所有的I/O事件在下一讲里我们将会看到如何把acceptor的连接事件和已连接套接字的I/O事件交由不同的线程处理而这个分离不过是在应用程序层简单的参数配置而已。

思考题

和往常一样,给你留两道思考题:

  1. 你可以试着修改一下onMessage方法把它变为期中作业中提到的cd、ls等command实现。
  2. 文章里服务器端的decode-compute-encode是在哪里实现的你有什么办法来解决业务逻辑和I/O逻辑混在一起么

欢迎你在评论区写下你的思考或者在GitHub上上传你的代码也欢迎把这篇文章分享给你的朋友或者同事一起交流一下。