gitbook/系统性能调优必知必会/docs/239176.md

133 lines
13 KiB
Markdown
Raw Permalink Normal View History

2022-09-03 22:05:03 +08:00
# 11 | 如何修改TCP缓冲区才能兼顾并发数量与传输速度
你好,我是陶辉。
我们在[\[第8课\]](https://time.geekbang.org/column/article/236921) 中讲了如何从C10K进一步到C10M不过这也意味着TCP占用的内存翻了一千倍服务器的内存资源会非常紧张。
如果你在Linux系统中用free命令查看内存占用情况会发现一栏叫做buff/cache它是系统内存似乎与应用进程无关。但每当进程新建一个TCP连接buff/cache中的内存都会上升4K左右。而且当连接传输数据时就远不止增加4K内存了。这样几十万并发连接就在进程内存外又增加了GB级别的系统内存消耗。
这是因为TCP连接是由内核维护的内核为每个连接建立的内存缓冲区既要为网络传输服务也要充当进程与网络间的缓冲桥梁。如果连接的内存配置过小就无法充分使用网络带宽TCP传输速度就会很慢如果连接的内存配置过大那么服务器内存会很快用尽新连接就无法建立成功。因此只有深入理解Linux下TCP内存的用途才能正确地配置内存大小。
这一讲我们就来看看Linux下的TCP缓冲区该如何修改才能在高并发下维持TCP的高速传输。
## 滑动窗口是怎样影响传输速度的?
我们知道TCP必须保证每一个报文都能够到达对方它采用的机制就是报文发出后必须收到接收方返回的ACK确认报文Acknowledge确认的意思。如果在一段时间内称为RTOretransmission timeout没有收到这个报文还得重新发送直到收到ACK为止。
**可见TCP报文发出去后并不能立刻从内存中删除因为重发时还需要用到它。**由于TCP是由内核实现的所以报文存放在内核缓冲区中这也是高并发下buff/cache内存增加很多的原因。
事实上,确认报文被收到的机制非常复杂,它受制于很多因素。我们先来看第一个因素,**速度**。
如果我们发送一个报文收到ACK确认后再发送下一个报文会有什么问题显然发送每个报文都需要经历一个RTT时延RTT的值可以用ping命令得到。要知道因为网络设备限制了报文的字节数所以每个报文的体积有限。
比如以太网报文最大只有1500字节而发送主机到接收主机间要经历多个广域网、局域网其中最小的设备决定了网络报文的最大字节数在TCP中这个值叫做MSSMaximum Segment Size它通常在1KB左右。如果RTT时延是10ms那么它们的传送速度最多只有1KB/10ms=100KB/s可见这种确认报文方式太影响传输速度了。
![](https://static001.geekbang.org/resource/image/8c/a8/8c97985f1ed742b458d0c00c3155aba8.png)
**提速的方式很简单,并行地批量发送报文,再批量确认报文即可。**比如发送一个100MB的文件如果MSS值为1KB那么需要发送约10万个报文。发送方大可以同时发送这10万个报文再等待它们的ACK确认。这样发送速度瞬间就达到100MB/10ms=10GB/s。
然而,这引出了另一个问题,接收方有那么强的处理能力吗?**接收方的处理能力**,这是影响确认机制的第二个因素(网络也没有这么强的处理能力,下一讲会介绍应对网络瓶颈的拥塞控制技术)。
![](https://static001.geekbang.org/resource/image/f9/85/f9e14ba29407da48bf55a7c24c7af585.png)
当接收方硬件不如发送方,或者系统繁忙、资源紧张时,是无法瞬间处理这么多报文的。于是,这些报文只能被丢掉,网络效率非常低。怎么限制发送方的速度呢?
**接收方把它的处理能力告诉发送方,使其限制发送速度即可,这就是滑动窗口的由来。**接收方根据它的缓冲区可以计算出后续能够接收多少字节的报文这个数字叫做接收窗口。当内核接收到报文时必须用缓冲区存放它们这样剩余缓冲区空间变小接收窗口也就变小了当进程调用read函数后数据被读入了用户空间内核缓冲区就被清空这意味着主机可以接收更多的报文接收窗口就会变大。
因此接收窗口并不是恒定不变的那么怎么把时刻变化的窗口通知给发送方呢TCP报文头部中的窗口字段就可以起到通知的作用。
当发送方从报文中得到接收方的窗口大小时就明白了最多能发送多少字节的报文这个数字被称为发送方的发送窗口。如果不考虑下一讲将要介绍的拥塞控制发送方的发送窗口就是接收方的接收窗口由于报文有传输时延t1时刻的接收窗口在t2时刻才能到达发送端因此这两个窗口并不完全等价
![](https://static001.geekbang.org/resource/image/9a/f1/9a9385d4e5343285201e0242809c16f1.jpg)
从上图中可以看到窗口字段只有2个字节因此它最多能表达216 即65535字节大小的窗口之所以不是65536是因为窗口可以为0此时叫做窗口关闭上一讲提到的关闭连接时让FIN报文发不出去以致于服务器的连接都处于FIN\_WAIT1状态就是通过窗口关闭技术实现的这在RTT为10ms的网络中也只能到达6MB/s的最大速度在当今的高速网络中显然并不够用。
[RFC1323](https://tools.ietf.org/html/rfc1323) 定义了扩充窗口的方法但Linux中打开这一功能需要把tcp\_window\_scaling配置设为1此时窗口的最大值可以达到1GB230
```
net.ipv4.tcp_window_scaling = 1
```
这样看来只要进程能及时地调用read函数读取数据并且接收缓冲区配置得足够大那么接收窗口就可以无限地放大发送方也就无限地提升发送速度。很显然这是不可能的因为网络的传输能力是有限的当发送方依据发送窗口发送超过网络处理能力的报文时路由器会直接丢弃这些报文。因此缓冲区的内存并不是越大越好。
## 带宽时延积如何确定最大传输速度?
缓冲区到底该设置为多大呢我们知道TCP的传输速度受制于发送窗口与接收窗口以及网络传输能力。其中两个窗口由缓冲区大小决定进程调用read函数是否及时也会影响它。如果缓冲区大小与网络传输能力匹配那么缓冲区的利用率就达到了最大值。
怎样计算出网络传输能力呢?带宽描述了网络传输能力,但它不能直接使用,因为它与窗口或者说缓冲区的计量单位不同。带宽是单位时间内的流量 它表达的是速度比如你家里的宽带100MB/s而窗口和缓冲区的单位是字节。当网络速度乘以时间才能得到字节数差的这个时间这就是网络时延。
当最大带宽是100MB/s、网络时延是10ms时这意味着客户端到服务器间的网络一共可以存放100MB/s \* 0.01s = 1MB的字节。这个1MB是带宽与时延的乘积所以它就叫做带宽时延积缩写为BDPBandwidth Delay Product。这1MB字节存在于飞行中的TCP报文它们就在网络线路、路由器等网络设备上。如果飞行报文超过了1MB就一定会让网络过载最终导致丢包。
由于发送缓冲区决定了发送窗口的上限,而发送窗口又决定了已发送但未确认的飞行报文的上限,因此,发送缓冲区不能超过带宽时延积,因为超出的部分没有办法用于有效的网络传输,且飞行字节大于带宽时延积还会导致丢包;而且,缓冲区也不能小于带宽时延积,否则无法发挥出高速网络的价值。
## 怎样调整缓冲区去适配滑动窗口?
这么看来,我们只要把缓冲区设置为带宽时延积不就行了吗?**比如当我们做socket网络编程时通过设置socket的SO\_SNDBUF属性就可以设定缓冲区的大小。**
然而,这并不是个好主意,因为不是每一个请求都能够达到最大传输速度,比如请求的体积太小时,在**慢启动**(下一讲会谈到)的影响下,未达到最大速度时请求就处理完了。再比如网络本身也会有波动,未必可以一直保持最大速度。
**因此,时刻让缓冲区保持最大,太过浪费内存了。**
到底该如何设置缓冲区呢?
我们可以使用Linux的**缓冲区动态调节功能**解决上述问题。其中缓冲区的调节范围是可以设置的。先来看发送缓冲区它的范围通过tcp\_wmem配置
```
net.ipv4.tcp_wmem = 4096 16384 4194304
```
其中第1个数值是动态范围的下限第3个数值是动态范围的上限。而中间第2个数值则是初始默认值。
发送缓冲区完全根据需求自行调整。比如一旦发送出的数据被确认而且没有新的数据要发送就可以把发送缓冲区的内存释放掉。而接收缓冲区的调整就要复杂一些先来看设置接收缓冲区范围的tcp\_rmem
```
net.ipv4.tcp_rmem = 4096 87380 6291456
```
它的数值与tcp\_wmem类似第1、3个值是范围的下限和上限第2个值是初始默认值。发送缓冲区自动调节的依据是待发送的数据接收缓冲区由于只能被动地等待接收数据它该如何自动调整呢
**可以依据空闲系统内存的数量来调节接收窗口。**如果系统的空闲内存很多,就可以把缓冲区增大一些,这样传给对方的接收窗口也会变大,因而对方的发送速度就会通过增加飞行报文来提升。反之,内存紧张时就会缩小缓冲区,这虽然会减慢速度,但可以保证更多的并发连接正常工作。
发送缓冲区的调节功能是自动开启的而接收缓冲区则需要配置tcp\_moderate\_rcvbuf为1来开启调节功能
```
net.ipv4.tcp_moderate_rcvbuf = 1
```
接收缓冲区调节时怎么判断空闲内存的多少呢这是通过tcp\_mem配置完成的
```
net.ipv4.tcp_mem = 88560 118080 177120
```
tcp\_mem的3个值是Linux判断系统内存是否紧张的依据。当TCP内存小于第1个值时不需要进行自动调节在第1和第2个值之间时内核开始调节接收缓冲区的大小大于第3个值时内核不再为TCP分配新内存此时新连接是无法建立的。
在高并发服务器中,为了兼顾网速与大量的并发连接,**我们应当保证缓冲区的动态调整上限达到带宽时延积而下限保持默认的4K不变即可。而对于内存紧张的服务而言调低默认值是提高并发的有效手段。**
同时如果这是网络IO型服务器那么**调大tcp\_mem的上限可以让TCP连接使用更多的系统内存这有利于提升并发能力。**需要注意的是tcp\_wmem和tcp\_rmem的单位是字节而tcp\_mem的单位是页面大小。而且**千万不要在socket上直接设置SO\_SNDBUF或者SO\_RCVBUF这样会关闭缓冲区的动态调整功能。**
## 小结
我们对这一讲的内容做个小结。
实现高并发服务时由于必须把大部分内存用在网络传输上所以除了关注应用内存的使用还必须关注TCP内核缓冲区的内存使用情况。
TCP使用ACK确认报文实现了可靠性又依赖滑动窗口既提升了发送速度也兼顾了接收方的处理能力。然而默认的滑动窗口最大只能到65KB要想提升发送速度必须提升滑动窗口的上限在Linux下是通过设置tcp\_window\_scaling为1做到的。
滑动窗口定义了飞行报文的最大字节数当它超过带宽时延积时就会发生丢包。而当它小于带宽时延积时就无法让TCP的传输速度达到网络允许的最大值。因此滑动窗口的设计必须参考带宽时延积。
内核缓冲区决定了滑动窗口的上限但我们不能通过socket的SO\_SNFBUF等选项直接把缓冲区大小设置为带宽时延积因为TCP不会一直维持在最高速上过大的缓冲区会减少并发连接数。Linux带来的缓冲区自动调节功能非常有效我们应当把缓冲区的上限设置为带宽时延积。其中发送缓冲区的调节功能是自动打开的而接收缓冲区需要把tcp\_moderate\_rcvbuf设置为1来开启其中调节的依据根据tcp\_mem而定。
这样高效地配置内存后,既能够最大程度地保持并发性,也能让资源充裕时连接传输速度达到最大值。这一讲我们谈了内核缓冲区对传输速度的影响,下一讲我们再来看如何调节发送速度以匹配不同的网络能力。
## 思考题
最后请你观察下Linux系统下连接建立时、发送接收数据时buff/cache内存的变动情况。用我们这一讲介绍的原理解释系统内存的变化现象。欢迎你在留言区与我沟通互动。
感谢阅读,如果你觉得这节课对你有一些启发,也欢迎把它分享给你的朋友。