You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

381 lines
17 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 35 | 答疑:编写高性能网络编程框架时,都需要注意哪些问题?
你好我是盛延敏这里是网络编程实战的第35讲欢迎回来。
这一篇文章是实战篇的答疑部分,也是本系列的最后一篇文章。非常感谢你的积极评论与留言,让每一篇文章的留言区都成为学习互动的好地方。在今天的内容里,我将针对评论区的问题做一次集中回答,希望能帮助你解决前面碰到的一些问题。
有关这部分内容我将采用Q&A的形式来展开。
## 为什么在发送数据时会先尝试通过socket直接发送再由框架接管呢
这个问题具体描述是下面这样的。
当应用程序需要发送数据时比如下面这段在完成数据读取和回应的编码之后会调用tcp\_connection\_send\_buffer方法发送数据。
```
//数据读到buffer之后的callback
int onMessage(struct buffer *input, struct tcp_connection *tcpConnection) {
printf("get message from tcp connection %s\n", tcpConnection->name);
printf("%s", input->data);
struct buffer *output = buffer_new();
int size = buffer_readable_size(input);
for (int i = 0; i < size; i++) {
buffer_append_char(output, rot13_char(buffer_read_char(input)));
}
tcp_connection_send_buffer(tcpConnection, output);
return 0;
}
```
而tcp\_connection\_send\_buffer方法则会调用tcp\_connection\_send\_data来发送数据
```
int tcp_connection_send_buffer(struct tcp_connection *tcpConnection, struct buffer *buffer) {
int size = buffer_readable_size(buffer);
int result = tcp_connection_send_data(tcpConnection, buffer->data + buffer->readIndex, size);
buffer->readIndex += size;
return result;
}
```
在tcp\_connection\_send\_data中如果发现当前 channel 没有注册 WRITE 事件,并且当前 tcp\_connection 对应的发送缓冲无数据需要发送,就直接调用 write 函数将数据发送出去。
```
//应用层调用入口
int tcp_connection_send_data(struct tcp_connection *tcpConnection, void *data, int size) {
size_t nwrited = 0;
size_t nleft = size;
int fault = 0;
struct channel *channel = tcpConnection->channel;
struct buffer *output_buffer = tcpConnection->output_buffer;
//先往套接字尝试发送数据
if (!channel_write_event_is_enabled(channel) && buffer_readable_size(output_buffer) == 0) {
nwrited = write(channel->fd, data, size);
if (nwrited >= 0) {
nleft = nleft - nwrited;
} else {
nwrited = 0;
if (errno != EWOULDBLOCK) {
if (errno == EPIPE || errno == ECONNRESET) {
fault = 1;
}
}
}
}
if (!fault && nleft > 0) {
//拷贝到Buffer中Buffer的数据由框架接管
buffer_append(output_buffer, data + nwrited, nleft);
if (!channel_write_event_is_enabled(channel)) {
channel_write_event_enable(channel);
}
}
return nwrited;
}
```
这里有同学不是很理解,为啥不能做成无论有没有 WRITE 事件都统一往发送缓冲区写再把WRITE 事件注册到event\_loop中呢
这个问题问得非常好。我觉得有必要展开讲讲。
如果用一句话来总结的话,这是为了发送效率。
我们来分析一下应用层读取数据进行编码之后的这个buffer对象是应用层创建的数据也在应用层这个buffer对象上。你可以理解tcp\_connection\_send\_data里面的data数据其实是应用层缓冲的而不是我们tcp\_connection这个对象里面的buffer。
如果我们跳过直接往套接字发送这一段而是把数据交给我们的tcp\_connection对应的output\_buffer这里有一个数据拷贝的过程它发生在buffer\_append里面。
```
int buffer_append(struct buffer *buffer, void *data, int size) {
if (data != NULL) {
make_room(buffer, size);
//拷贝数据到可写空间中
memcpy(buffer->data + buffer->writeIndex, data, size);
buffer->writeIndex += size;
}
}
```
但是,如果增加了一段判断来直接往套接字发送,其实就跳过了这段拷贝,直接把数据发往到了套接字发生缓冲区。
```
//先往套接字尝试发送数据
if (!channel_write_event_is_enabled(channel) && buffer_readable_size(output_buffer) == 0) {
nwrited = write(channel->fd, data, size)
...
```
在绝大部分场景下这种处理方式已经满足数据发送的需要了不再需要把数据拷贝到tcp\_connection对象中的output\_buffer中。
如果不满足直接往套接字发送的条件比如已经注册了回调事件或者output\_buffer里面有数据需要发送那么就把数据拷贝到output\_buffer中让event\_loop的回调不断地驱动handle\_write将数据从output\_buffer发往套接字缓冲区中。
```
//发送缓冲区可以往外写
//把channel对应的output_buffer不断往外发送
int handle_write(void *data) {
struct tcp_connection *tcpConnection = (struct tcp_connection *) data;
struct event_loop *eventLoop = tcpConnection->eventLoop;
assertInSameThread(eventLoop);
struct buffer *output_buffer = tcpConnection->output_buffer;
struct channel *channel = tcpConnection->channel;
ssize_t nwrited = write(channel->fd, output_buffer->data + output_buffer->readIndex,buffer_readable_size(output_buffer));
if (nwrited > 0) {
//已读nwrited字节
output_buffer->readIndex += nwrited;
//如果数据完全发送出去,就不需要继续了
if (buffer_readable_size(output_buffer) == 0) {
channel_write_event_disable(channel);
}
//回调writeCompletedCallBack
if (tcpConnection->writeCompletedCallBack != NULL) {
tcpConnection->writeCompletedCallBack(tcpConnection);
}
} else {
yolanda_msgx("handle_write for tcp connection %s", tcpConnection->name);
}
}
```
你可以这样想象在一个非常高效的处理条件下你需要发送什么都直接发送给了套接字缓冲区而当网络条件变差处理效率变慢或者待发送的数据极大一次发送不可能完成的时候这部分数据被框架缓冲到tcp\_connection的发送缓冲区对象output\_buffer中由事件分发机制来负责把这部分数据发送给套接字缓冲区。
## 关于回调函数的设计
在epoll-server-multithreads.c里面定义了很多回调函数比如onMessage onConnectionCompleted等这些回调函数被用于创建一个TCPServer但是在tcp\_connection对照中又实现了handle\_read handle\_write 等事件的回调,似乎有两层回调,为什么要这样封装两层回调呢?
这里如果说回调函数,确实有两个不同层次的回调函数。
第一个层次是框架定义的对连接的生命周期管理的回调。包括连接建立完成后的回调、报文读取并接收到output缓冲区之后的回调、报文发送到套接字缓冲区之后的回调以及连接关闭时的回调。分别是connectionCompletedCallBack、messageCallBack、writeCompletedCallBack以及connectionClosedCallBack。
```
struct tcp_connection {
struct event_loop *eventLoop;
struct channel *channel;
char *name;
struct buffer *input_buffer; //接收缓冲区
struct buffer *output_buffer; //发送缓冲区
connection_completed_call_back connectionCompletedCallBack;
message_call_back messageCallBack;
write_completed_call_back writeCompletedCallBack;
connection_closed_call_back connectionClosedCallBack;
void * data; //for callback use: http_server
void * request; // for callback use
void * response; // for callback use
};
```
为什么要定义这四个回调函数呢?
因为框架需要提供给应用程序和框架的编程接口我把它总结为编程连接点或者叫做program-hook-point。就像是设计了一个抽象类这个抽象类代表了框架给你提供的一个编程入口你可以继承这个抽象类完成一些方法的填充这些方法和框架类一起工作就可以表现出一定符合逻辑的行为。
比如我们定义一个抽象类People这个类的其他属性包括它的创建和管理都可以交给框架来完成但是你需要完成两个函数一个是on\_sad这个人悲伤的时候干什么另一个是on\_happy这个人高兴的时候干什么。
```
abstract class People{
void on_sad();
void on_happy();
}
```
这样我们可以试着把tcp\_connection改成这样
```
abstract class TCP_connection{
void on_connection_completed();
void on_message();
void on_write_completed();
void on_connectin_closed();
}
```
这个层次的回调,更像是一层框架和应用程序约定的接口,接口实现由应用程序来完成,框架负责在合适的时候调用这些预定义好的接口,回调的意思体现在“框架会调用预定好的接口实现”。
比如当连接建立成功一个新的connection创建出来connectionCompletedCallBack函数会被回调
```
struct tcp_connection *
tcp_connection_new(int connected_fd, struct event_loop *eventLoop,
connection_completed_call_back connectionCompletedCallBack,
connection_closed_call_back connectionClosedCallBack,
message_call_back messageCallBack,
write_completed_call_back writeCompletedCallBack) {
...
// add event read for the new connection
struct channel *channel1 = channel_new(connected_fd, EVENT_READ, handle_read, handle_write, tcpConnection);
tcpConnection->channel = channel1;
//connectionCompletedCallBack callback
if (tcpConnection->connectionCompletedCallBack != NULL) {
tcpConnection->connectionCompletedCallBack(tcpConnection);
}
...
}
```
第二个层次的回调是基于epoll、poll事件分发机制的回调。通过注册一定的读、写事件在实际事件发生时由事件分发机制保证对应的事件回调函数被及时调用完成基于事件机制的网络I/O处理。
在每个连接建立之后创建一个对应的channel对象并为这个channel对象赋予了读、写回调函数
```
// add event read for the new connection
struct channel *channel1 = channel_new(connected_fd, EVENT_READ, handle_read, handle_write, tcpConnection);
```
handle\_read函数对应用程序屏蔽了套接字的读操作把数据缓冲到tcp\_connection的input\_buffer中而且它还起到了编程连接点和框架的耦合器的作用这里分别调用了messageCallBack和connectionClosedCallBack函数完成了应用程序编写部分代码在框架的“代入”。
```
int handle_read(void *data) {
struct tcp_connection *tcpConnection = (struct tcp_connection *) data;
struct buffer *input_buffer = tcpConnection->input_buffer;
struct channel *channel = tcpConnection->channel;
if (buffer_socket_read(input_buffer, channel->fd) > 0) {
//应用程序真正读取Buffer里的数据
if (tcpConnection->messageCallBack != NULL) {
tcpConnection->messageCallBack(input_buffer, tcpConnection);
}
} else {
handle_connection_closed(tcpConnection);
}
}
```
handle\_write函数则负责把tcp\_connection对象里的output\_buffer源源不断地送往套接字发送缓冲区。
```
//发送缓冲区可以往外写
//把channel对应的output_buffer不断往外发送
int handle_write(void *data) {
struct tcp_connection *tcpConnection = (struct tcp_connection *) data;
struct event_loop *eventLoop = tcpConnection->eventLoop;
assertInSameThread(eventLoop);
struct buffer *output_buffer = tcpConnection->output_buffer;
struct channel *channel = tcpConnection->channel;
ssize_t nwrited = write(channel->fd, output_buffer->data + output_buffer->readIndex,buffer_readable_size(output_buffer));
if (nwrited > 0) {
//已读nwrited字节
output_buffer->readIndex += nwrited;
//如果数据完全发送出去,就不需要继续了
if (buffer_readable_size(output_buffer) == 0) {
channel_write_event_disable(channel);
}
//回调writeCompletedCallBack
if (tcpConnection->writeCompletedCallBack != NULL) {
tcpConnection->writeCompletedCallBack(tcpConnection);
}
} else {
yolanda_msgx("handle_write for tcp connection %s", tcpConnection->name);
}
}
```
## tcp\_connection对象设计的想法是什么和channel有什么联系和区别
tcp\_connection对象似乎和channel对象有着非常紧密的联系为什么要单独设计一个tcp\_connection呢
我也提到了开始的时候我并不打算设计一个tcp\_connection对象的后来我才发现非常有必要存在一个tcp\_connection对象。
第一我需要在暴露给应用程序的onMessageonConnectionCompleted等回调函数里传递一个有用的数据结构这个数据结构必须有一定的现实语义可以携带一定的信息比如套接字、缓冲区等而channel对象过于单薄和连接的语义相去甚远。
第二这个channel对象是抽象的比如acceptor比如socketpair等它们都是一个channel只要能引起事件的发生和传递都是一个channel基于这一点我也觉得最好把chanel作为一个内部实现的细节不要通过回调函数暴露给应用程序。
第三在后面实现HTTP的过程中我发现需要在上下文中保存http\_request和http\_response数据而这个部分数据放在channel中是非常不合适的所以才有了最后的tcp\_connection对象。
```
struct tcp_connection {
struct event_loop *eventLoop;
struct channel *channel;
char *name;
struct buffer *input_buffer; //接收缓冲区
struct buffer *output_buffer; //发送缓冲区
connection_completed_call_back connectionCompletedCallBack;
message_call_back messageCallBack;
write_completed_call_back writeCompletedCallBack;
connection_closed_call_back connectionClosedCallBack;
void * data; //for callback use: http_server
void * request; // for callback use
void * response; // for callback use
};
```
简单总结下来就是每个tcp\_connection对象一定包含了一个channel对象而channel对象未必是一个tcp\_connection对象。
## 主线程等待子线程完成的同步锁问题
有人在加锁这里有个疑问如果加锁的目的是让主线程等待子线程初始化event\_loop那不加锁不是也可以达到这个目的吗主线程while循环里面不断判断子线程的event\_loop是否不为null不就可以了为什么一定要加一把锁呢
```
//由主线程调用初始化一个子线程并且让子线程开始运行event_loop
struct event_loop *event_loop_thread_start(struct event_loop_thread *eventLoopThread) {
pthread_create(&eventLoopThread->thread_tid, NULL, &event_loop_thread_run, eventLoopThread);
assert(pthread_mutex_lock(&eventLoopThread->mutex) == 0);
while (eventLoopThread->eventLoop == NULL) {
assert(pthread_cond_wait(&eventLoopThread->cond, &eventLoopThread->mutex) == 0);
}
assert(pthread_mutex_unlock(&eventLoopThread->mutex) == 0);
yolanda_msgx("event loop thread started, %s", eventLoopThread->thread_name);
return eventLoopThread->eventLoop;
}
```
要回答这个问题就要解释多线程下共享变量竞争的问题。我们知道一个共享变量在多个线程下同时作用如果没有锁的控制就会引起变量的不同步。这里的共享变量就是每个eventLoopThread的eventLoop对象。
这里如果我们不加锁一直循环判断每个eventLoopThread的状态会对CPU增加很大的消耗如果使用锁-信号量的方式来加以解决就变得很优雅而且不会对CPU造成过多的影响。
## 关于channel\_map的设计特别是内存方面的设计。
我们来详细介绍一下channel\_map。
channel\_map实际上是一个指针数组这个数组里面的每个元素都是一个指针指向了创建出的channel对象。我们用数据下标和套接字进行了映射这样虽然有些元素是浪费了比如stdinstdoutstderr代表的套接字0、1和2但是总体效率是非常高的。
你在这里可以看到图中描绘了channel\_map的设计。
![](https://static001.geekbang.org/resource/image/a3/fe/a32869877c3bd54f8433267e009002fe.png)
而且我们的channel\_map还不会太占用内存在最开始的时候整个channel\_map的指针数组大小为0当这个channel\_map投入使用时会根据实际使用的套接字的增长按照32、64、128这样的速度成倍增长这样既保证了实际的需求也不会一下子占用太多的内存。
此外当指针数组增长时我们不会销毁原来的部分而是使用realloc()把旧的内容搬过去再使用memset() 用来给新申请的内存初始化为0值这样既高效也节省内存。
## 总结
以上就是实战篇中一些同学的疑问。
在这篇文章之后,我们的专栏就告一段落了,我希望这个专栏可以帮你梳理清楚高性能网络编程的方方面面,如果你能从中有所领悟,或者帮助你在面试中拿到好的结果,我会深感欣慰。
如果你觉得今天的答疑内容对你有所帮助,欢迎把它转发给你的朋友或者同事,一起交流一下。