gitbook/Linux性能优化实战/docs/70077.md
2022-09-03 22:05:03 +08:00

237 lines
14 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 04 | 基础篇:经常说的 CPU 上下文切换是什么意思?(下)
你好,我是倪朋飞。
上一节我给你讲了CPU上下文切换的工作原理。简单回顾一下CPU 上下文切换是保证 Linux 系统正常工作的一个核心功能,按照不同场景,可以分为进程上下文切换、线程上下文切换和中断上下文切换。具体的概念和区别,你也要在脑海中过一遍,忘了的话及时查看上一篇。
今天我们就接着来看究竟怎么分析CPU上下文切换的问题。
## 怎么查看系统的上下文切换情况
通过前面学习我们知道过多的上下文切换会把CPU 时间消耗在寄存器、内核栈以及虚拟内存等数据的保存和恢复上,缩短进程真正运行的时间,成了系统性能大幅下降的一个元凶。
既然上下文切换对系统性能影响那么大,你肯定迫不及待想知道,到底要怎么查看上下文切换呢?在这里,我们可以使用 vmstat 这个工具,来查询系统的上下文切换情况。
vmstat 是一个常用的系统性能分析工具,主要用来分析系统的内存使用情况,也常用来分析 CPU 上下文切换和中断的次数。
比如,下面就是一个 vmstat 的使用示例:
```
# 每隔5秒输出1组数据
$ vmstat 5
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 0 7005360 91564 818900 0 0 0 0 25 33 0 0 100 0 0
```
我们一起来看这个结果,你可以先试着自己解读每列的含义。在这里,我重点强调下,需要特别关注的四列内容:
* cscontext switch是每秒上下文切换的次数。
* ininterrupt则是每秒中断的次数。
* rRunning or Runnable是就绪队列的长度也就是正在运行和等待CPU的进程数。
* bBlocked则是处于不可中断睡眠状态的进程数。
可以看到,这个例子中的上下文切换次数 cs 是33次而系统中断次数 in 则是25次而就绪队列长度r和不可中断状态进程数b都是0。
vmstat 只给出了系统总体的上下文切换情况,要想查看每个进程的详细情况,就需要使用我们前面提到过的 pidstat 了。给它加上 -w 选项,你就可以查看每个进程上下文切换的情况了。
比如说:
```
# 每隔5秒输出1组数据
$ pidstat -w 5
Linux 4.15.0 (ubuntu) 09/23/18 _x86_64_ (2 CPU)
08:18:26 UID PID cswch/s nvcswch/s Command
08:18:31 0 1 0.20 0.00 systemd
08:18:31 0 8 5.40 0.00 rcu_sched
...
```
这个结果中有两列内容是我们的重点关注对象。一个是 cswch 表示每秒自愿上下文切换voluntary context switches的次数另一个则是 nvcswch 表示每秒非自愿上下文切换non voluntary context switches的次数。
这两个概念你一定要牢牢记住,因为它们意味着不同的性能问题:
* 所谓**自愿上下文切换,是指进程无法获取所需资源,导致的上下文切换**。比如说, I/O、内存等系统资源不足时就会发生自愿上下文切换。
* 而**非自愿上下文切换,则是指进程由于时间片已到等原因,被系统强制调度,进而发生的上下文切换**。比如说,大量进程都在争抢 CPU 时,就容易发生非自愿上下文切换。
## 案例分析
知道了怎么查看这些指标,另一个问题又来了,上下文切换频率是多少次才算正常呢?别急着要答案,同样的,我们先来看一个上下文切换的案例。通过案例实战演练,你自己就可以分析并找出这个标准了。
### 你的准备
今天的案例,我们将使用 sysbench 来模拟系统多线程调度切换的情况。
sysbench 是一个多线程的基准测试工具,一般用来评估不同系统参数下的数据库负载情况。当然,在这次案例中,我们只把它当成一个异常进程来看,作用是模拟上下文切换过多的问题。
下面的案例基于 Ubuntu 18.04,当然,其他的 Linux 系统同样适用。我使用的案例环境如下所示:
* 机器配置2 CPU8GB 内存
* 预先安装 sysbench 和 sysstat 包,如 apt install sysbench sysstat
正式操作开始前,你需要打开三个终端,登录到同一台 Linux 机器中并安装好上面提到的两个软件包。包的安装可以先Google一下自行解决如果仍然有问题的在留言区写下你的情况。
另外注意,下面所有命令,都**默认以 root 用户运行**。所以,如果你是用普通用户登陆的系统,记住先运行 sudo su root 命令切换到 root 用户。
安装完成后,你可以先用 vmstat 看一下空闲系统的上下文切换次数:
```
# 间隔1秒后输出1组数据
$ vmstat 1 1
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 0 6984064 92668 830896 0 0 2 19 19 35 1 0 99 0 0
```
这里你可以看到,现在的上下文切换次数 cs 是35而中断次数 in 是19r和b都是0。因为这会儿我并没有运行其他任务所以它们就是空闲系统的上下文切换次数。
### 操作和分析
接下来,我们正式进入实战操作。
首先,在第一个终端里运行 sysbench ,模拟系统多线程调度的瓶颈:
```
# 以10个线程运行5分钟的基准测试模拟多线程切换的问题
$ sysbench --threads=10 --max-time=300 threads run
```
接着,在第二个终端运行 vmstat ,观察上下文切换情况:
```
# 每隔1秒输出1组数据需要Ctrl+C才结束
$ vmstat 1
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
6 0 0 6487428 118240 1292772 0 0 0 0 9019 1398830 16 84 0 0 0
8 0 0 6487428 118240 1292772 0 0 0 0 10191 1392312 16 84 0 0 0
```
你应该可以发现cs 列的上下文切换次数从之前的 35 骤然上升到了 139 万。同时,注意观察其他几个指标:
* r 列:就绪队列的长度已经到了 8远远超过了系统 CPU 的个数 2所以肯定会有大量的 CPU 竞争。
* ususer和 sysystem这两列的CPU 使用率加起来上升到了 100%,其中系统 CPU 使用率,也就是 sy 列高达 84%,说明 CPU 主要是被内核占用了。
* in 列中断次数也上升到了1万左右说明中断处理也是个潜在的问题。
综合这几个指标我们可以知道系统的就绪队列过长也就是正在运行和等待CPU的进程数过多导致了大量的上下文切换而上下文切换又导致了系统 CPU 的占用率升高。
那么到底是什么进程导致了这些问题呢?
我们继续分析,在第三个终端再用 pidstat 来看一下, CPU 和进程上下文切换的情况:
```
# 每隔1秒输出1组数据需要 Ctrl+C 才结束)
# -w参数表示输出进程切换指标而-u参数则表示输出CPU使用指标
$ pidstat -w -u 1
08:06:33 UID PID %usr %system %guest %wait %CPU CPU Command
08:06:34 0 10488 30.00 100.00 0.00 0.00 100.00 0 sysbench
08:06:34 0 26326 0.00 1.00 0.00 0.00 1.00 0 kworker/u4:2
08:06:33 UID PID cswch/s nvcswch/s Command
08:06:34 0 8 11.00 0.00 rcu_sched
08:06:34 0 16 1.00 0.00 ksoftirqd/1
08:06:34 0 471 1.00 0.00 hv_balloon
08:06:34 0 1230 1.00 0.00 iscsid
08:06:34 0 4089 1.00 0.00 kworker/1:5
08:06:34 0 4333 1.00 0.00 kworker/0:3
08:06:34 0 10499 1.00 224.00 pidstat
08:06:34 0 26326 236.00 0.00 kworker/u4:2
08:06:34 1000 26784 223.00 0.00 sshd
```
从pidstat的输出你可以发现CPU 使用率的升高果然是 sysbench 导致的,它的 CPU 使用率已经达到了 100%。但上下文切换则是来自其他进程,包括非自愿上下文切换频率最高的 pidstat ,以及自愿上下文切换频率最高的内核线程 kworker 和 sshd。
不过细心的你肯定也发现了一个怪异的事儿pidstat 输出的上下文切换次数,加起来也就几百,比 vmstat 的 139 万明显小了太多。这是怎么回事呢?难道是工具本身出了错吗?
别着急,在怀疑工具之前,我们再来回想一下,前面讲到的几种上下文切换场景。其中有一点提到, Linux 调度的基本单位实际上是线程,而我们的场景 sysbench 模拟的也是线程的调度问题,那么,是不是 pidstat 忽略了线程的数据呢?
通过运行 man pidstat 你会发现pidstat 默认显示进程的指标数据,加上 -t 参数后,才会输出线程的指标。
所以,我们可以在第三个终端里, Ctrl+C 停止刚才的 pidstat 命令,再加上 -t 参数,重试一下看看:
```
# 每隔1秒输出一组数据需要 Ctrl+C 才结束)
# -wt 参数表示输出线程的上下文切换指标
$ pidstat -wt 1
08:14:05 UID TGID TID cswch/s nvcswch/s Command
...
08:14:05 0 10551 - 6.00 0.00 sysbench
08:14:05 0 - 10551 6.00 0.00 |__sysbench
08:14:05 0 - 10552 18911.00 103740.00 |__sysbench
08:14:05 0 - 10553 18915.00 100955.00 |__sysbench
08:14:05 0 - 10554 18827.00 103954.00 |__sysbench
...
```
现在你就能看到了,虽然 sysbench 进程(也就是主线程)的上下文切换次数看起来并不多,但它的子线程的上下文切换次数却有很多。看来,上下文切换罪魁祸首,还是过多的 sysbench 线程。
我们已经找到了上下文切换次数增多的根源,那是不是到这儿就可以结束了呢?
当然不是。不知道你还记不记得前面在观察系统指标时除了上下文切换频率骤然升高还有一个指标也有很大的变化。是的正是中断次数。中断次数也上升到了1万但到底是什么类型的中断上升了现在还不清楚。我们接下来继续抽丝剥茧找源头。
既然是中断,我们都知道,它只发生在内核态,而 pidstat 只是一个进程的性能分析工具,并不提供任何关于中断的详细信息,怎样才能知道中断发生的类型呢?
没错,那就是从 /proc/interrupts 这个只读文件中读取。/proc 实际上是 Linux 的一个虚拟文件系统,用于内核空间与用户空间之间的通信。/proc/interrupts 就是这种通信机制的一部分,提供了一个只读的中断使用情况。
我们还是在第三个终端里, Ctrl+C 停止刚才的 pidstat 命令,然后运行下面的命令,观察中断的变化情况:
```
# -d 参数表示高亮显示变化的区域
$ watch -d cat /proc/interrupts
CPU0 CPU1
...
RES: 2450431 5279697 Rescheduling interrupts
...
```
观察一段时间,你可以发现,变化速度最快的是**重调度中断**RES这个中断类型表示唤醒空闲状态的 CPU 来调度新的任务运行。这是多处理器系统SMP调度器用来分散任务到不同 CPU 的机制,通常也被称为**处理器间中断**Inter-Processor InterruptsIPI
所以,这里的中断升高还是因为过多任务的调度问题,跟前面上下文切换次数的分析结果是一致的。
通过这个案例,你应该也发现了多工具、多方面指标对比观测的好处。如果最开始时,我们只用了 pidstat 观测,这些很严重的上下文切换线程,压根儿就发现不了了。
现在再回到最初的问题,每秒上下文切换多少次才算正常呢?
**这个数值其实取决于系统本身的 CPU 性能**。在我看来,如果系统的上下文切换次数比较稳定,那么从数百到一万以内,都应该算是正常的。但当上下文切换次数超过一万次,或者切换次数出现数量级的增长时,就很可能已经出现了性能问题。
这时,你还需要根据上下文切换的类型,再做具体分析。比方说:
* 自愿上下文切换变多了,说明进程都在等待资源,有可能发生了 I/O 等其他问题;
* 非自愿上下文切换变多了,说明进程都在被强制调度,也就是都在争抢 CPU说明 CPU 的确成了瓶颈;
* 中断次数变多了,说明 CPU 被中断处理程序占用,还需要通过查看 /proc/interrupts 文件来分析具体的中断类型。
## 小结
今天我通过一个sysbench的案例给你讲了上下文切换问题的分析思路。碰到上下文切换次数过多的问题时**我们可以借助 vmstat 、 pidstat 和 /proc/interrupts 等工具**,来辅助排查性能问题的根源。
## 思考
最后,我想请你一起来聊聊,你之前是怎么分析和排查上下文切换问题的。你可以结合这两节的内容和你自己的实际操作,来总结自己的思路。
欢迎在留言区和我讨论,也欢迎把这篇文章分享给你的同事、朋友。我们一起在实战中演练,在交流中学习。
![](https://static001.geekbang.org/resource/image/56/52/565d66d658ad23b2f4997551db153852.jpg)