gitbook/Java业务开发常见错误100例/docs/230534.md
2022-09-03 22:05:03 +08:00

284 lines
19 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 35 | 加餐5分析定位Java问题一定要用好这些工具
你好,我是朱晔。
在[上一篇加餐](https://time.geekbang.org/column/article/224816)中我们介绍了使用JDK内置的一些工具、网络抓包工具Wireshark去分析、定位Java程序的问题。很多同学看完这一讲留言反馈说是“打开了一片新天地之前没有关注过JVM”“利用JVM工具发现了生产OOM的原因”。
其实,工具正是帮助我们深入到框架和组件内部,了解其运作方式和原理的重要抓手。所以,我们一定要用好它们。
今天我继续和你介绍如何使用JVM堆转储的工具MAT来分析OOM问题以及如何使用全能的故障诊断工具Arthas来分析、定位高CPU问题。
## 使用MAT分析OOM问题
对于排查OOM问题、分析程序堆内存使用情况最好的方式就是分析堆转储。
堆转储包含了堆现场全貌和线程栈信息Java 6 Update 14开始包含。我们在上一篇加餐中看到使用jstat等工具虽然可以观察堆内存使用情况的变化但是对程序内到底有多少对象、哪些是大对象还一无所知也就是说只能看到问题但无法定位问题。而堆转储就好似得到了病人在某个瞬间的全景核磁影像可以拿着慢慢分析。
Java的OutOfMemoryError是比较严重的问题需要分析出根因所以对生产应用一般都会这样设置JVM参数方便发生OOM时进行堆转储
```
-XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=.
```
上一篇加餐中我们提到的jvisualvm工具同样可以进行一键堆转储后直接打开这个dump查看。但是jvisualvm的堆转储分析功能并不是很强大只能查看类使用内存的直方图无法有效跟踪内存使用的引用关系所以我更推荐使用Eclipse的Memory Analyzer也叫做MAT做堆转储的分析。你可以点击[这个链接](https://www.eclipse.org/mat/)下载MAT。
使用MAT分析OOM问题一般可以按照以下思路进行
1. 通过支配树功能或直方图功能查看消耗内存最大的类型,来分析内存泄露的大概原因;
2. 查看那些消耗内存最大的类型、详细的对象明细列表,以及它们的引用链,来定位内存泄露的具体点;
3. 配合查看对象属性的功能,可以脱离源码看到对象的各种属性的值和依赖关系,帮助我们理清程序逻辑和参数;
4. 辅助使用查看线程栈来看OOM问题是否和过多线程有关甚至可以在线程栈看到OOM最后一刻出现异常的线程。
比如我手头有一个OOM后得到的转储文件java\_pid29569.hprof现在要使用MAT的直方图、支配树、线程栈、OQL等功能来分析此次OOM的原因。
首先用MAT打开后先进入的是概览信息界面可以看到整个堆是437.6MB
![](https://static001.geekbang.org/resource/image/63/61/63ecdaf5ff7ac431f0d05661855b2e61.png)
那么这437.6MB都是什么对象呢?
如图所示工具栏的第二个按钮可以打开直方图直方图按照类型进行分组列出了每个类有多少个实例以及占用的内存。可以看到char\[\]字节数组占用内存最多对象数量也很多结合第二位的String类型对象数量也很多大概可以猜出String使用char\[\]作为实际数据存储程序可能是被字符串占满了内存导致OOM。
![](https://static001.geekbang.org/resource/image/0b/b9/0b3ca076b31a2d571a47c64d622b0db9.png)
我们继续分析下,到底是不是这样呢。
在char\[\]上点击右键选择List objects->with incoming references就可以列出所有的char\[\]实例以及每个char\[\]的整个引用关系链:
![](https://static001.geekbang.org/resource/image/f1/a3/f162fb9c6505dc9a8f1ea9900437ada3.png)
随机展开一个char\[\],如下图所示:
![](https://static001.geekbang.org/resource/image/dd/ac/dd4cb44ad54edee3a51f56a646c5f2ac.png)
接下来我们按照红色框中的引用链来查看尝试找到这些大char\[\]的来源:
* 在①处看到这些char\[\]几乎都是10000个字符、占用20000字节左右char是UTF-16每一个字符占用2字节
* 在②处看到char\[\]被String的value字段引用说明char\[\]来自字符串;
* 在③处看到String被ArrayList的elementData字段引用说明这些字符串加入了一个ArrayList中
* 在④处看到ArrayList又被FooService的data字段引用这个ArrayList整个RetainedHeap列的值是431MB。
Retained Heap深堆代表对象本身和对象关联的对象占用的内存Shallow Heap浅堆代表对象本身占用的内存。比如我们的FooService中的data这个ArrayList对象本身只有16字节但是其所有关联的对象占用了431MB内存。这些就可以说明肯定有哪里在不断向这个List中添加String数据导致了OOM。
左侧的蓝色框可以查看每一个实例的内部属性图中显示FooService有一个data属性类型是ArrayList。
如果我们希望看到字符串完整内容的话可以右键选择Copy->Value把值复制到剪贴板或保存到文件中
![](https://static001.geekbang.org/resource/image/cc/8f/cc1d53eb9570582da415c1aec5cc228f.png)
这里我们复制出的是10000个字符a下图红色部分可以看到。对于真实案例查看大字符串、大数据的实际内容对于识别数据来源有很大意义
![](https://static001.geekbang.org/resource/image/7b/a0/7b3198574113fecdd2a7de8cde8994a0.png)
看到这些,我们已经基本可以还原出真实的代码是怎样的了。
其实我们之前使用直方图定位FooService已经走了些弯路。你可以点击工具栏中第三个按钮下图左上角的红框所示进入支配树界面有关支配树的具体概念参考[这里](https://help.eclipse.org/2020-03/index.jsp?topic=%2Forg.eclipse.mat.ui.help%2Fconcepts%2Fdominatortree.html&resultof%3D%2522%2564%256f%256d%2569%256e%2561%2574%256f%2572%2522%2520%2522%2564%256f%256d%2569%256e%2522%2520%2522%2574%2572%2565%2565%2522%2520)。这个界面会按照对象保留的Retained Heap倒序直接列出占用内存最大的对象。
可以看到第一位就是FooService整个路径是FooSerice->ArrayList->Object\[\]->String->char\[\]蓝色框部分一共有21523个字符串绿色方框部分
![](https://static001.geekbang.org/resource/image/7a/57/7adafa4178a4c72f8621b7eb49ee2757.png)
这样我们就从内存角度定位到FooService是根源了。那么OOM的时候FooService是在执行什么逻辑呢
为解决这个问题我们可以点击工具栏的第五个按钮下图红色框所示。打开线程视图首先看到的就是一个名为main的线程Name列展开后果然发现了FooService
![](https://static001.geekbang.org/resource/image/3a/ce/3a2c3d159e1599d906cc428d812cccce.png)
先执行的方法先入栈所以线程栈最上面是线程当前执行的方法逐一往下看能看到整个调用路径。因为我们希望了解FooService.oom()方法看看是谁在调用它它的内部又调用了谁所以选择以FooService.oom()方法(蓝色框)为起点来分析这个调用栈。
往下看整个绿色框部分oom()方法被OOMApplication的run方法调用而这个run方法又被SpringAppliction.callRunner方法调用。看到参数中的CommandLineRunner你应该能想到OOMApplication其实是实现了CommandLineRunner接口所以是SpringBoot应用程序启动后执行的。
以FooService为起点往上看从紫色框中的Collectors和IntPipeline你大概也可以猜出这些字符串是由Stream操作产生的。再往上看可以发现在StringBuilder的append操作的时候出现了OutOfMemoryError异常黑色框部分说明这这个线程抛出了OOM异常。
我们看到整个程序是Spring Boot应用程序那么FooService是不是Spring的Bean呢又是不是单例呢如果能分析出这点的话就更能确认是因为反复调用同一个FooService的oom方法然后导致其内部的ArrayList不断增加数据的。
点击工具栏的第四个按钮如下图红框所示来到OQL界面。在这个界面我们可以使用类似SQL的语法在dump中搜索数据你可以直接在MAT帮助菜单搜索OQL Syntax来查看OQL的详细语法
比如输入如下语句搜索FooService的实例
```
SELECT * FROM org.geekbang.time.commonmistakes.troubleshootingtools.oom.FooService
```
可以看到只有一个实例然后我们通过List objects功能搜索引用FooService的对象
![](https://static001.geekbang.org/resource/image/19/43/1973846815bd9d78f85bef05b499e843.png)
得到以下结果:
![](https://static001.geekbang.org/resource/image/07/a8/07e1216a6cc93bd146535b5809649ea8.png)
可以看到,一共两处引用:
* 第一处是OOMApplication使用了FooService这个我们已经知道了。
* 第二处是一个ConcurrentHashMap。可以看到这个HashMap是DefaultListableBeanFactory的singletonObjects字段可以证实FooService是Spring容器管理的单例的Bean。
你甚至可以在这个HashMap上点击右键选择Java Collections->Hash Entries功能来查看其内容
![](https://static001.geekbang.org/resource/image/ce/5f/ce4020b8f63db060a94fd039314b2d5f.png)
这样就列出了所有的Bean可以在Value上的Regex进一步过滤。输入FooService后可以看到类型为FooService的Bean只有一个其名字是fooService
![](https://static001.geekbang.org/resource/image/02/1a/023141fb717704cde9a57c5be6118d1a.png)
到现在为止我们虽然没看程序代码但是已经大概知道程序出现OOM的原因和大概的调用栈了。我们再贴出程序来对比一下果然和我们看到得一模一样
```
@SpringBootApplication
public class OOMApplication implements CommandLineRunner {
@Autowired
FooService fooService;
public static void main(String[] args) {
SpringApplication.run(OOMApplication.class, args);
}
@Override
public void run(String... args) throws Exception {
//程序启动后不断调用Fooservice.oom()方法
while (true) {
fooService.oom();
}
}
}
@Component
public class FooService {
List<String> data = new ArrayList<>();
public void oom() {
//往同一个ArrayList中不断加入大小为10KB的字符串
data.add(IntStream.rangeClosed(1, 10_000)
.mapToObj(__ -> "a")
.collect(Collectors.joining("")));
}
}
```
到这里我们使用MAT工具从对象清单、大对象、线程栈等视角分析了一个OOM程序的堆转储。可以发现有了堆转储几乎相当于拿到了应用程序的源码+当时那一刻的快照OOM的问题无从遁形。
## 使用Arthas分析高CPU问题
[Arthas](https://alibaba.github.io/arthas/)是阿里开源的Java诊断工具相比JDK内置的诊断工具要更人性化并且功能强大可以实现许多问题的一键定位而且可以一键反编译类查看源码甚至是直接进行生产代码热修复实现在一个工具内快速定位和修复问题的一站式服务。今天我就带你使用Arthas定位一个CPU使用高的问题系统学习下这个工具的使用。
首先下载并启动Arthas
```
curl -O https://alibaba.github.io/arthas/arthas-boot.jar
java -jar arthas-boot.jar
```
启动后直接找到我们要排查的JVM进程然后可以看到Arthas附加进程成功
```
[INFO] arthas-boot version: 3.1.7
[INFO] Found existing java process, please choose one and hit RETURN.
* [1]: 12707
[2]: 30724 org.jetbrains.jps.cmdline.Launcher
[3]: 30725 org.geekbang.time.commonmistakes.troubleshootingtools.highcpu.HighCPUApplication
[4]: 24312 sun.tools.jconsole.JConsole
[5]: 26328 org.jetbrains.jps.cmdline.Launcher
[6]: 24106 org.netbeans.lib.profiler.server.ProfilerServer
3
[INFO] arthas home: /Users/zhuye/.arthas/lib/3.1.7/arthas
[INFO] Try to attach process 30725
[INFO] Attach process 30725 success.
[INFO] arthas-client connect 127.0.0.1 3658
,---. ,------. ,--------.,--. ,--. ,---. ,---.
/ O \ | .--. ''--. .--'| '--' | / O \ ' .-'
| .-. || '--'.' | | | .--. || .-. |`. `-.
| | | || |\ \ | | | | | || | | |.-' |
`--' `--'`--' '--' `--' `--' `--'`--' `--'`-----'
wiki https://alibaba.github.io/arthas
tutorials https://alibaba.github.io/arthas/arthas-tutorials
version 3.1.7
pid 30725
time 2020-01-30 15:48:33
```
输出help命令可以看到所有支持的命令列表。今天我们会用到dashboard、thread、jad、watch、ognl命令来定位这个HighCPUApplication进程。你可以通过[官方文档](https://alibaba.github.io/arthas/commands.html),查看这些命令的完整介绍:
![](https://static001.geekbang.org/resource/image/47/73/47b2abc1c3a8c0670a60c6ed74761873.png)
dashboard命令用于整体展示进程所有线程、内存、GC等情况其输出如下
![](https://static001.geekbang.org/resource/image/ce/4c/ce59c22389ba95104531e46edd9afa4c.png)
可以看到CPU高并不是GC引起的占用CPU较多的线程有8个其中7个是ForkJoinPool.commonPool。学习过[加餐1](https://time.geekbang.org/column/article/212374)的话你应该就知道了ForkJoinPool.commonPool是并行流默认使用的线程池。所以此次CPU高的问题应该出现在某段并行流的代码上。
接下来要查看最繁忙的线程在执行的线程栈可以使用thread -n命令。这里我们查看下最忙的8个线程
```
thread -n 8
```
输出如下:
![](https://static001.geekbang.org/resource/image/96/00/96cca0708e211ea7f7de413d40c72c00.png)
可以看到由于这些线程都在处理MD5的操作所以占用了大量CPU资源。我们希望分析出代码中哪些逻辑可能会执行这个操作所以需要从方法栈上找出我们自己写的类并重点关注。
由于主线程也参与了ForkJoinPool的任务处理因此我们可以通过主线程的栈看到需要重点关注org.geekbang.time.commonmistakes.troubleshootingtools.highcpu.HighCPUApplication类的doTask方法。
接下来使用jad命令直接对HighCPUApplication类反编译
```
jad org.geekbang.time.commonmistakes.troubleshootingtools.highcpu.HighCPUApplication
```
可以看到调用路径是main->task()->doTask()当doTask方法接收到的int参数等于某个常量的时候会进行1万次的MD5操作这就是耗费CPU的来源。那么这个魔法值到底是多少呢
![](https://static001.geekbang.org/resource/image/45/e5/4594c58363316d8ff69178d7a341d5e5.png)
你可能想到了通过jad命令继续查看User类即可。这里因为是Demo所以我没有给出很复杂的逻辑。在业务逻辑很复杂的代码中判断逻辑不可能这么直白我们可能还需要分析出doTask的“慢”会慢在什么入参上。
这时我们可以使用watch命令来观察方法入参。如下命令表示需要监控耗时超过100毫秒的doTask方法的入参并且输出入参展开2层入参参数
```
watch org.geekbang.time.commonmistakes.troubleshootingtools.highcpu.HighCPUApplication doTask '{params}' '#cost>100' -x 2
```
可以看到所有耗时较久的doTask方法的入参都是0意味着User.ADMN\_ID常量应该是0。
![](https://static001.geekbang.org/resource/image/04/3a/04e7a4e54c09052ab937f184ab31e03a.png)
最后我们使用ognl命令来运行一个表达式直接查询User类的ADMIN\_ID静态字段来验证是不是这样得到的结果果然是0
```
[arthas@31126]$ ognl '@org.geekbang.time.commonmistakes.troubleshootingtools.highcpu.User@ADMIN_ID'
@Integer[0]
```
需要额外说明的是由于monitor、trace、watch等命令是通过字节码增强技术来实现的会在指定类的方法中插入一些切面来实现数据统计和观测因此诊断结束要执行shutdown来还原类或方法字节码然后退出Arthas。
在这个案例中我们通过Arthas工具排查了高CPU的问题
* 首先通过dashboard + thread命令基本可以在几秒钟内一键定位问题找出消耗CPU最多的线程和方法栈
* 然后直接jad反编译相关代码来确认根因
* 此外如果调用入参不明确的话可以使用watch观察方法入参并根据方法执行时间来过滤慢请求的入参。
可见使用Arthas来定位生产问题根本用不着原始代码也用不着通过增加日志来帮助我们分析入参一个工具即可完成定位问题、分析问题的全套流程。
对于应用故障分析除了阿里Arthas之外还可以关注去哪儿的[Bistoury工具](https://github.com/qunarcorp/bistoury)其提供了可视化界面并且可以针对多台机器进行管理甚至提供了在线断点调试等功能模拟IDE的调试体验。
## 重点回顾
最后,我再和你分享一个案例吧。
有一次开发同学遇到一个OOM问题通过查监控、查日志、查调用链路排查了数小时也无法定位问题但我拿到堆转储文件后直接打开支配树图一眼就看到了可疑点。Mybatis每次查询都查询出了几百万条数据通过查看线程栈马上可以定位到出现Bug的方法名然后来到代码果然发现因为参数条件为null导致了全表查询整个定位过程不足5分钟。
从这个案例我们看到使用正确的工具、正确的方法来分析问题几乎可以在几分钟内定位到问题根因。今天我和你介绍的MAT正是分析Java堆内存问题的利器而Arthas是快速定位分析Java程序生产Bug的利器。利用好这两个工具就可以帮助我们在分钟级定位生产故障。
## 思考与讨论
1. 在介绍[线程池](https://time.geekbang.org/column/article/210337)的时候我们模拟了两种可能的OOM情况一种是使用Executors.newFixedThreadPool一种是使用Executors.newCachedThreadPool你能回忆起OOM的原因吗假设并不知道OOM的原因拿到了这两种OOM后的堆转储你能否尝试使用MAT分析堆转储来定位问题呢
2. Arthas还有一个强大的热修复功能。比如遇到高CPU问题时我们定位出是管理员用户会执行很多次MD5消耗大量CPU资源。这时我们可以直接在服务器上进行热修复步骤是jad命令反编译代码->使用文本编辑器比如Vim直接修改代码->使用sc命令查找代码所在类的ClassLoader->使用redefine命令热更新代码。你可以尝试使用这个流程直接修复程序注释doTask方法中的相关代码
在平时工作中你还会使用什么工具来分析排查Java应用程序的问题呢我是朱晔欢迎在评论区与我留言分享你的想法也欢迎你把今天的内容分享给你的朋友或同事一起交流。