You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

184 lines
18 KiB
Markdown

2 years ago
# 27 | 多任务环境中的Java性能问题怎样才能不让程序互相干扰
你好,我是庄振运。
我们来继续学习生产实践中的案例。在生产实践中,为了降低公司运营成本,更好地利用系统容量,并提高资源使用率,我们经常会让多个应用程序,同时运行在同一台服务器上。
但是,万事有利就有弊。这几个共存的应用程序,有可能会互相影响;有时还会导致严重的性能问题。我就遇到过,几个程序同时运行,最后导致吞吐量急剧下降的情况。
所以今天我们就来探讨当多个Java应用程序共存在一个Linux系统上的时候会产生哪些性能问题我们又该怎么解决这些问题
## 怎样理解多程序互相干扰?
为了更好地理解后面的性能问题你需要先了解一下应用程序内存管理机制的背景知识。我们运行的是Java程序所以先快速复习一下**Java的JVM内存管理机制**。
Java程序在Java虚拟机JVM中运行JVM使用的内存区域称为**堆**。JVM堆用于支持动态Java对象的分配并且分为几个区域称为“代”例如新生代和老年代。Java对象首先在新生代中分配当这些对象不再被需要时它们会被称为GCGarbage Collection的垃圾回收机制收集。发生GC时JVM会从根对象开始一个个地检查所有对象的引用计数。如果对象的引用计数降为零那就删除这个对象并回收使用这个对象相应的存储空间。
GC运行的某些阶段会导致应用程序停止响应其他请求这种行为通常称为STWStop The Word暂停。 JVM调优的重要目标之一就是最大程度地减少GC暂停的持续时间。
复习完JVM内存管理机制我们还要看一下与它相关的**Linux的内存管理机制**。
在Linux操作系统上虚拟内存空间基本上是固定大小例如4KB的页面。Linux近年来有很多内存管理的优化来提高内存使用效率和运行进程的性能。
Linux内存管理有一个**页面回收**的机制。它在内部维护一个空闲页面Free Page列表来满足未来应用程序的内存请求。当空闲页面的数量下降到一定水平时操作系统就开始回收页面并将新回收的页面添加到空闲列表中。
执行页面回收时操作系统需要进行页面扫描Page Scanning以检查已经分配页面的活动性。Linux有两个策略来进行页面扫描**后台扫描**由kswapd守护程序执行和**前台扫描**(由进程自己执行)。
通常情况下后台扫描就够了应用程序的性能一般不会受到影响。但是当操作系统的内存使用非常大空闲页面严重不足时Linux就会启动前台页面回收也被称为**直接回收或同步回收**。在前台页面回收过程中,应用程序会停止运行,因此对应用程序影响很大。
Linux还有一个**页面交换**Page Swapping的机制。是当可用内存不足时Linux会将某些内存页面换出到外部存储以回收内存空间来运行新进程。当对应于换出页面的内存空间再次处于活动状态时系统会把这些页面重新从外部存储换入内存。
内存管理方面THPTransparent Huge Pages透明大页面是另外一个机制也是为了提高进程的性能。我们在[第22讲](https://time.geekbang.org/column/article/189200)讨论过如果系统用较大的页面比如2MB而不是传统的4KB那么会带来一些好处尤其是所需的地址转换条目数会减少。
尽管使用大页面的好处很早就为人所理解但在THP引入之前程序想使用大型页面并不容易。例如操作系统启动时需要保留大页面并且进程必须显式调用才能分配大页面。而THP就是为了避免这两个问题而设计的因此操作系统默认情况下就启用THP。
了解了背景知识,你再看多个应用程序共存时的两个场景就不会有障碍了。第一个场景是应用程序启动时,第二个场景是应用程序稳定运行时。
## 应用程序启动时为什么会被其他程序干扰?
我们先看应用程序启动时的场景。当几个共存的应用程序共享有限的计算资源包括内存和cpu它们之间会相互影响。如果各自独立地运行导致对系统计算资源的消耗无法协调一致那么某些应用程序会出现问题。
我们要做个实验来暴露这些性能问题,看看这个问题的表象是什么,然后一起分析产生问题的原因。
这个实验采用了两个相同的Java程序。我们首先启动第一个程序来占用一些内存系统剩下约20GB的未使用内存。然后我们开始启动另外一个Java程序这个程序需要20GB的堆。
![](https://static001.geekbang.org/resource/image/25/87/250f92b847f23868da8910e7134e2687.png)
在图中你可以看到启动第二个程序之后它的吞吐量是12K/秒持续时间约30秒。然后吞吐量开始急剧下降。最坏的情况在大约20秒的时间内吞吐量几乎为零。有趣的是过了一会儿吞吐量又再次回到了稳定状态12KB/秒。
下图显示了同一时间段的GC暂停信息。
![](https://static001.geekbang.org/resource/image/2e/d5/2e76dec3ff4a1928dd1162da13dabed5.png)
最初的GC暂停很低都低于50毫秒然后暂停就跳到数百毫秒之大。你甚至可以看到两次大于1秒的超大的暂停大约1分钟后GC暂停再次下降至低于50毫秒并变得稳定。
我们看到在启动期间Java程序的性能很差。因为问题是在启动JVM时发生的我们有理由怀疑这与JVM的启动方式有关。我们检查了程序的的内存驻留大小RESResident Size也就是进程使用的未交换的物理内存图示如下。
![](https://static001.geekbang.org/resource/image/d9/7b/d96aaba8c8ef2119901a914985170d7b.png)
从图中你可以看到尽管我们在启动JVM时用参数将JVM的堆大小指定为20GB-Xmx20g和-Xms20g但是JVM并不会从内存中一次全部拿到20GB的堆空间。相反操作系统会在JVM的运行过程中不断地分配。也就是说随着JVM实例化越来越多的对象JVM会从操作系统逐渐拿到更多的内存页面来容纳它们。
在分配过程中操作系统将不断地检查空闲页面列表。如果发现可用内存量低于一定水平操作系统就会开始回收页面这个过程会花费CPU的时间。根据可用内存短缺的严重程度回收过程可能会严重阻塞应用程序。在下图中我们看到可用内存明显地下降到了非常低的水平。
![](https://static001.geekbang.org/resource/image/db/ec/db352ff5d0cf5ac1cb0a65e1d14d67ec.png)
下面这张图显示了CPU的空闲百分比CPU空闲百分比和繁忙百分比的和是100%。对比时间线我们可以清楚地看到页面回收过程会导致CPU开销也就是空闲百分比下降了。
![](https://static001.geekbang.org/resource/image/b1/12/b1daec744f3ec004c0b48260b1d06d12.png)
那么怎么进行内存回收呢?
在Linux上当可用内存不足时操作系统会唤醒**kswapd守护程序**,开始在后台回收空闲页面。如果内存压力很大,操作系统就会被迫采取另外一种措施,就是**直接地同步释放内存的前台**。具体来讲,当可用空闲页面降到一个阈值之下,就会触发这种直接前台回收。
当发生直接前台回收时Linux会冻结正在申请内存的执行代码的应用程序从而间接地导致大量的GC暂停。
此外直接回收通常会扫描大量内存页面以释放未使用的页面。那么我们就来看看Linux直接回收内存页面的繁忙程度。下图就画出了Linux通过直接回收路径扫描的页面数。
![](https://static001.geekbang.org/resource/image/58/95/58acbaa1b20764b08a0cc7725cfff795.png)
我们看到在峰值时通过直接回收每秒扫描约48K个页面即200 MB这个回收工作量是很大的CPU会不堪重负。
## 运行中的应用程序为什么会被别的程序干扰?
了解过程序启动时互相干扰的场景,我们再来考虑第二个场景:应用程序在持续运行中。
我们的实验是这样进行的。第一个Java程序以20GB的堆启动并进入稳定状态。然后另外一个程序启动并开始分配50GB的内存。
下图中体现了第一个程序的吞吐量。
![](https://static001.geekbang.org/resource/image/a9/45/a9b05fb6c7d9cec5085b86f06196f645.png)
从图中我们看到第一个程序从一开始就实现了稳定的12K/秒的吞吐量。然后吞吐量急剧下降到零这个零吞吐量的过程持续了约2分钟。从那时起吞吐量一直在发生相当大的变化有时吞吐量是12K/秒,其他时候又降为零。
我们也观察了JVM的暂停用下图所示。
![](https://static001.geekbang.org/resource/image/ed/5d/eded62489c1d07997998bd460d8d8e5d.png)
从图中我们看到在稳定状态下GC暂停几乎为零然后居然有一个超级大的暂停多大呢55秒从那时起GC暂停持续变化但很少恢复为零。大多数暂停时间为几秒钟。
我们观察到,其他应用程序的运行会严重影响本程序的性能。各种观察的结论是,系统处于内存压力之下,操作系统内存会有很多和外部存储的页面交换活动。在下图中,我们看到操作系统交换出了很多内存页面到外部存储空间。
![](https://static001.geekbang.org/resource/image/3f/57/3f9408097dcdb03ec54c5f49a71f5657.png)
这些换出的内存页面很多属于Java程序也就是堆空间。如果JVM需要进行堆上的垃圾回收也就是GC那么GC需要扫描JVM对象以收集失效的对象。如果扫描的对象恰好是分配在换出的页面上那么JVM需要先将它们从外部存储交换空间重新载入到内存中。从外部存储载入内存需要一些时间因为交换空间通常位于磁盘驱动器上。
所有这些时间都会算在GC暂停之中。因此程序会看到较大的GC暂停。下图就显示了大量的从外部存储载入页面的活动。
![](https://static001.geekbang.org/resource/image/e4/62/e4207f1105b7b8ef720f1eb1cdc19a62.png)
尽管页面交换活动会增加GC暂停时间似乎可以解释刚刚看到的JVM暂停。但是我怀疑仅是这个原因根本无法解释生产中看到的很大暂停比如超过55秒的暂停。你可能会问我为什么有这样的怀疑因为我在许多GC暂停的过程中观察到了较高的系统CPU使用。
比如在下图中我们观察到系统也处于严重的CPU压力下。
![](https://static001.geekbang.org/resource/image/f9/4c/f946efa1b98a07302d7fd2b52daf9b4c.png)
CPU的高使用率不能完全归因于页面交换活动因为页面交换通常不会占用大量CPU。所以其中“必有隐情”一定是有其他活动在大量使用CPU。我们通过检查了各种系统性能指标最终确定了根因是由于THP的机制该机制严重加剧了程序性能和系统性能的下降。
具体来说Linux启用THP后当应用程序分配内存时会优先选择2MB大小的透明大页面而不是4KB的常规页面。这一点我们可以轻易验证比如下图中显示了透明大页面的瞬时数量。在峰值时我们看到约34,000个THP即约68GB的内存量。
![](https://static001.geekbang.org/resource/image/0b/aa/0b948557e64c10edf711532d3d6647aa.png)
我们还观察到THP的数量一开始很高一段时间后开始下降。这是因为某些THP被拆分成小的常规页面以补充可用内存的不足。
为什么需要拆分大页面呢是因为当Linux在有内存压力时它会将THP分为常规的、要准备交换的页面。为什么必需拆分大页面这是因为当前的Linux仅支持常规大小页面的交换。
拆分活动的数量我们也用下图画出来了。你可以看到在五分钟内大约有5K个THP页面被拆分对应于10GB的内存。
![](https://static001.geekbang.org/resource/image/c0/3a/c07ba59fbb545d1e9cb9f11e650e1c3a.png)
除了大页面拆分同时Linux也会尝试将常规页面重新聚合为THP大页面这就需要额外的页面扫描并消耗CPU。如果你在实践中注意观察的话可以发现这种活动会占用大量CPU。
使用THP可能遇到的更糟糕的情况是**聚合**和**拆分**这两个相互矛盾的活动是来回执行的。也就是说当系统承受内存压力时THP被拆分成常规页面而不久之后常规页面则又被聚合成THP依此类推。我们已经观察到这种行为会严重损害我们生产系统中的应用程序性能。
## 如何解决多程序互相干扰?
那么程序在启动和运行时互相干扰的性能问题,到底该怎么解决呢?我们现在就来看解决方案。
我们的解决方案由三个设计元素组成,每个设计元素都针对问题的特定方面。部署任何单独的元素都将在一定程度上对问题有所帮助。但是,所有设计元素协同工作,才能获得最好的效果。
第一个设计元素是**预分配JVM的堆空间**。
我们知道对JVM而言只有在实际使用堆空间之时就是当需要增大堆空间来容纳新对象分配请求时Linux才会为之分配新的内存页面这时就可能会触发大量页面回收并损害程序和系统性能。
这个设计元素就是预分配所有堆空间从而避免了Linux实时分配页面的不利场景。要预先执行堆预分配需要使用一个特殊的JVM参数“ -XX+ AlwaysPreTouch”来启动Java应用程序。
但这个设计元素也有副作用就是增加了JVM启动所需的时间在部署时你需要考虑这一点。我们也做过一些实际测量这个额外启动时间并不大一般在几秒钟内通常是可以接受的。
第二个设计元素,是关于如何**保护JVM的堆空间不被唤出到外部存储**。
我们知道当发生GC时JVM需要扫描相应的内存页。如果这些页面被操作系统换出到外部存储则需要先换入它们到内存这就会导致延迟会增加JVM的暂停时间。
这个设计元素就可以防止JVM的堆页面被换出。 我们知道Linux操作系统上是可以关闭内存页面交换的但是这个设置如果是在系统级别进行就会影响所有应用程序和所有内存空间。我推荐你一个更好的实现就是采用**微调**你来选择哪个应用程序和哪个存储区域可以页面交换。例如你可以使用cgroup来精确控制要交换的应用程序。
公司中的大多数平台一般都用来运行同类Java应用程序这些程序往往配置差不多。在这些情况下在系统级别关闭应用程序交换倒也是非常合理的。
第三个设计元素是**动态调整THP**。
我们已经看到启用THP功能可能会在某些场景下导致严重的性能损失但是THP在其他场景的确提高了性能所以到底是否要启用THP呢我们需要仔细考虑。
当THP影响性能时系统的可用内存往往也恰好严重不足。发生这种情况时现有的THP需要拆分成常规页面以进行页面换出。所以我建议你用一个可用内存大小的阈值来决定THP的开关。
具体来说,就是建议你使用**应用程序的堆大小**作为内存阈值来决定是否打开或关闭THP。当可用内存远远大于应用程序的内存可能占用量大小时就启用THP因为系统不太可能在启动特定应用程序后出现内存压力。否则的话就关闭THP。
由于许多后端服务器都是运行同类应用程序,通常情况下,你都很容易知道,部署的应用程序预期会占用多少内存空间。
此外常规页面需要聚合成THP才能将大页面分配给应用程序。因此这个元素的另外一部分机制是进行微调是决定何时允许THP聚合。我建议你根据**操作系统的直接页面扫描率**和**聚合进程的CPU使用率**来决定。
## 总结
今天我们讲述了,将多个应用程序放置在同一台服务器上时,由于应用程序和操作系统机制的互相作用,引发的一系列性能问题。这些问题的根本原因,就是程序之间的互相影响。
![](https://static001.geekbang.org/resource/image/df/ef/dfe49c970e5a67b8f6a3993b9fc39aef.png)
应用程序之间的关系和人际关系一样,有时和谐,有时不和谐。唐代诗人刘禹锡有几句诗说:“常恨言语浅,不如人意深。今朝两相视,脉脉万重心。”说的是,语言的表达能力通常很有限,所以两人只能用眼神传达更复杂的情感。应用程序之间的关系,甚至程序和操作系统及硬件之间的关系,也会很复杂,也需要做足够的性能分析,才能理清它们之间的关系。
今天的讲述,主要集中在多任务共存环境中的两个问题,重点在分析问题产生的复杂根因。 如果你对这方面的具体算法和生产验证有兴趣,可以参考我的一篇论文。这篇论文发表在[International Journal of Cloud Computing](https://www.researchgate.net/publication/282348773)上面。
## 思考题
Linux操作系统的THP机制的设计初衷本是为了提升系统性能。可是在有些情况下反而导致了系统性能下降。想一想操作系统的其他机制有没有类似的情况发生
> Tips文件系统的预先读取等。
欢迎你在留言区分享自己的思考,与我和其他同学一起讨论,也欢迎你把文章分享给自己的朋友。