gitbook/系统性能调优必知必会/docs/253403.md
2022-09-03 22:05:03 +08:00

74 lines
12 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 大咖助场1 | 李玥:高并发场景下如何优化微服务的性能?
你好,我是李玥。相信这里有部分同学对我是比较熟悉的,我在极客时间开了两门课,分别是[《消息队列高手课》](https://time.geekbang.org/column/intro/212?utm_term=zeusEX4MV&utm_source=geektime&utm_medium=xiangqingye)和[《后端存储实战课》](https://time.geekbang.org/column/intro/100046801)。今天很荣幸受邀来到陶辉老师的专栏做一期分享。
陶辉老师的这门课程,其中的知识点都是非常“硬核”,因为涉及到计算机操作系统底层的这些运行机制,确实非常抽象。我也看到有些同学在留言区提到,希望能通过一些例子来帮助大家更好地消化一下这些知识。那么这期分享呢,我就来帮陶辉老师做一次科普,帮助同学们把“基础设施优化”这一部分中讲到的一些抽象的概念和方法,用举例子的方式来梳理一遍。总结下的话,就是帮你理清这些问题:
* 线程到底是如何在CPU中执行的
* 线程上下文切换为什么会影响性能?
* 为什么说异步比同步的性能好?
* BIO、NIO、AIO到底有什么区别
## 为什么线程数越多反而性能越差?
今天的课程从一个选择题开始。假设我们有一个服务服务的业务逻辑和我们每天在做的业务都差不多根据传入的参数去数据库查询数据然后执行一些简单的业务逻辑后返回。我们的服务需要能支撑10,000TPS的请求数量那么数据库的连接池设置成多大合适呢
我给你二个选项:
* A. 32
* B. 2048
我们直接公布答案选项A是性能更好的选择。连接池的大小直接影响的是同时请求到数据库服务器的并发数量。那我们直觉的第一印象可能是并发越多总体性能应该越好才对事实真的是这样吗下面我们通过一个例子来探究一下这个问题的答案。
说有一个工厂要新上一个车间车间里面设置了8条流水生产线每个流水线设置1个工位那需要安排多少个工人才能达到最佳的效率呢显然是需要8个工人是吧工人少了生产线闲置工人多了也没有工位让他们去工作工人闲置8个工人对8条流水线是效率最优解。这里面的车间就可以类比为一台计算机工位就是线程工人就是CPU的核心。通过这个类比我们就可以得出这样一个结论**一个8核的CPU8个线程的情况下效率是最高的。** 这时每个CPU核心正好对应一个线程。
这是一个非常理想的情况它有一个前提就是流水线上的工人CPU核心一直有事情做没有任何等待。而现实情况下我们绝大部分的计算程序都做不到像工厂流水线那么高效。我们开发的程序几乎是**请求/响应**的模型对应到车间的例子生产模式不太像流水线更像是来料加工。工人在工位上等着来了一件原料工人开始加工加工完成后成品被送走然后再等待下一件周而复始。对应到计算机程序中原料就是请求工人在工位上加工原料的过程相当于CPU在线程上执行业务逻辑的过程成品就是响应或者说是请求的返回值。你可以对照下面这个图来理解上面我们讲的这个例子以及对应到计算机程序中的概念。
![](https://static001.geekbang.org/resource/image/yy/8c/yy53149254ae8cc325b1bc24e5a6428c.png)
来料加工这种情况下只有8个工位并不能保证8个工人一直满负荷的工作。因为工人每加工完成一件产品之后需要等待成品被送出去下一件原料被送进来才能开始继续工作。在同一个工位上加工每件产品之间的等待是不可避免的那怎么才能最大化工人的效率尽量减少工人等待呢很简单增加一些工位就可以了。工人在A工位加工完成一件产品之后不在A工位等着马上去另外一个原料已经就绪的B工位继续工作这样只要工位设置得足够多就可以保证8个工人一直满负荷工作。
那同样是8个工人满负荷工作多工位来料加工这种方式和上面提到的8条流水线作业的方式哪种效率更高呢还是流水线的效率高是不是原因是虽然在这两种方式下工人们都在满负荷工作但是来料加工这种方式下工人在不同的工位之间切换也是需要一点点时间的相比于流水线作业这部分工时相当于被浪费掉了。
工人在工位间切换对应到计算机执行程序的过程就是CPU在不同的线程之间切换称为**线程上下文切换**。一次线程上下文切换的时间耗时非常短大约只有几百个纳秒ns。一般来说我们并不需要太关注这个短到不可感知的切换时间但是在多线程高并发的场景下如果没有很好的优化就有可能出现CPU在大量线程间频繁地发生切换累积下来这个切换时间就很可观了严重的话就会拖慢服务的总体性能。
我们再来思考另外一个问题:设置多少个工位最合适呢?工位数量不足时,工人不能满负荷工作,工位数量太多了也不行,工人需要频繁地切换工位,浪费时间。这里面一定存在一个最优工位数,可以让所有工人正好不需要等待且满负荷工作。最优工位数取决于工人的加工速度、等待原料的时长等因素。如果这些参数是确定的,那我们确定这个最佳工位数就不太难了。一般来说,工位的数量设置成工人数量的两三倍就差不多了,如果等待的时间比较长,可能需要五六倍,大致是这样一个数量级。把这个结论对应到计算机系统中就是,**对于一个请求/响应模型的服务并发线程数设置为CPU核数N倍时性能最佳**N的大致的经验值范围是\[2, 10\]。
有了这个结论,再回过头来看我们课程开始提到的那个数据库连接池问题。数据库服务符合“请求/响应模型”所以它的并发数量并不是越多越好根据我们上面得出的结论大约是CPU核数的几倍时达到最佳性能。这个问题来自于数据库连接池HikariCP的一篇Wiki: [About Pool Sizing](https://github.com/brettwooldridge/HikariCP/wiki/About-Pool-Sizing),里面有详细的性能测试数据和计算最佳连接池数量的公式,强烈推荐你课后去看一下。
## 为什么说异步比同步的性能好?
然后我们再来思考这样一个问题。我们开发的很多业务服务实际的情况是,并发线程数越多总体性能越好,几百甚至上千个线程才达到最佳性能。这并不符合我们上面说的那个结论啊?什么原因?
原因是这样的,我们上面这个结论它有一个适用范围,它的适用范围是,像数据库服务这样,只依赖于本地计算资源的服务。
如果说我们的业务服务它在处理请求过程中还需要去调用其他服务这种情况就不适用于我们上面所说的结论。这里面的其它服务包括数据库服务或者是下游的业务服务等等。不适用的原因是我们线程在执行业务逻辑过程中很大一部分时间都花在等待外部服务上了在这个等待的过程中几乎不需要CPU参与。换句话说每个线程需要的CPU时间是非常少的这样的情况下一个CPU核心需要非常多的线程才能把它“喂饱”这就是为什么这些业务服务需要非常多的线程数才能达到最佳性能的原因。
我们刚刚讲过线程数过多很容易导致CPU频繁的在这些线程之间切换虽然CPU看起来已经在满负荷运行了但CPU并没有把所有的时间都用在执行我们的业务逻辑上其中一部分CPU时间浪费在线程上下文切换上了。怎么来优化这种情况呢要想让CPU高效地执行业务逻辑最佳方式就是我们开头提到的流水线用和CPU核数相同的线程数通过源源不断地供给请求让CPU一直不停地执行业务逻辑。**所以优化的关键点是,减少线程的数量**把线程数量控制在和CPU核数相同的数量级这样一个范围。
要减少线程数量,有这样两个问题需要解决。
第一个问题是如何用少量的线程来处理大量并发请求呢我们可以用一个请求队列和一组数量固定的执行线程来解决这个问题。线程的数量就等于CPU的核数。接收到的请求先放入请求队列然后分配给执行线程去处理。这样基本上能达到让每个CPU的核心相对固定到一个线程上不停地执行业务逻辑这样一个效果。
第二个问题是,执行线程在需要调用外部服务的时候,如何避免线程等待外部服务,同时还要保证及时处理返回的响应呢?我们希望的情况是,执行线程需要调用外部服务的时候,把请求发送出去之后,不要去等待响应,而是去继续处理下一个请求。等外部请求的响应回来之后,能有一个通知,来触发执行线程再执行后续的业务逻辑,直到给客户端返回响应。这其实就是我们通常所说的**异步IO模型AIOAsynchronous I/O**这个模型的关键就是线程不去等待Socket通道上的数据而是待数据到达时由操作系统来发起一个通知触发业务线程来处理。Linux内核从2.6开始才加入了AIO的支持到目前为止AIO还没有被广泛使用。
使用更广泛的是**IO多路复用模型IO Multiplexing**IO多路复用本质上还是一种同步IO模型。但是它允许一个线程同时等待多个Socket通道任意一个通道上有数据到来就解除等待去处理。IO多路复用没有AIO那么理想化但也只是多了一个线程用于等待响应相比AIO来说效果也差不了多少在内核AIO支持还不完善的时代是一个非常务实且高效的网络IO模型。
很多编程语言中都有一些网络IO框架封装了这些IO模型来帮我们解决这个问题比如Java语言中的BIO、NIO、AIO分别对应了同步IO模型、IO多路复用模型和异步IO模型。
解决了上面这两个问题之后,我们用很少量的线程就可以处理大量的并发请求。这种情况下,负责返回响应的线程和接收请求的线程,不再是同一个线程,这其实就是我们所说的**异步模型**。你可以看到,**异步模型并不会让程序的业务逻辑执行得更快但是它可以非常有效地避免线程等待大幅减少CPU在线程上下文切换上浪费的时间。**这样,在同样的计算机配置下,异步模型相比同步模型,可以更高效地利用计算机资源,从而拥有更好的总体的吞吐能力。
## 小结
以上就是本节课的全部内容了,我们来简单地做个小结。
理论上线程数量设置为CPU核数并且线程没有等待的情况下CPU几乎不会发生线程上下文切换这个时候程序的执行效率是最高的。实际情况下对于一个请求/响应模型的服务并发线程数设置为CPU核数N倍时性能最佳。这个N取决于业务逻辑的执行时间、线程等待时间等因素N的大致的经验值范围是\[2, 10\]。
使用异步模型编写微服务配合异步IO或者IO多路复用可以有效地避免线程等待用少量的线程处理大量并发请求大幅减少线程上下文切换的开销从而达到提升服务总体性能的效果。
## 思考题
最后留给你一道思考题。IO多路复用它只是一种IO模型实际上有多种实现。在Linux中有select、poll、epoll三种实现方式课后请你去查阅一下资料看看这三种实现方式有什么区别
感谢阅读,如果今天的内容让你有所收获,欢迎把它分享给你的朋友。